XX
Senior Data Engineer (Client Solutions)Yeji Data LabBanff, Alberta, Canada
XX

Senior Data Engineer (Client Solutions)

Yeji Data Lab
  • CA
    Banff, Alberta, Canada
  • CA
    Banff, Alberta, Canada

Über

We’re Hiring: Senior Data Engineers

Nous recrutons : Ingénieur·e·s de données senior


English


As a global firm, we partner with leading organizations to solve their most pressing challenges through Machine Learning and data engineering, creating sustainable value at scale. As a client-facing consultancy, our team must be adaptable, technically rigorous, and capable of designing systems from the ground up across a wide range of industries in North America and beyond.


We are looking for Senior Data Engineers who are more than coders. We are seeking platform architects and trusted advisors. The ideal candidate thrives in fast-paced environments, can move across different client technology stacks, and brings a fundamentals-first approach to distributed systems and modern data platform design.


In this role, you will work directly with client stakeholders to design, implement, and operationalize modern data platforms that power AI, analytics, and operational decision-making.


Key Responsibilities

Client Management & Consulting

  • Act as a technical bridge between Yeji Data Lab and our clients. Translate business requirements into technical roadmaps, explain complex trade-offs to non-technical stakeholders, and guide architecture and delivery decisions.
  • System Design & Architecture: Lead the end-to-end design of scalable data architectures. You will define the blueprints for reliable data ingestion, storage, and processing, tailored to specific client needs across modern cloud data platforms.
  • Data Orchestration: Architect and implement modern data estates, primarily using Microsoft Fabric , while adapting to client-specific technology stacks when needed. Ensure complex pipelines are automated, monitored, and resilient.
  • Pipeline Engineering: Develop and maintain high-throughput batch and streaming pipelines to support AI and ML deployment.
  • Data Modeling & Quality: Design robust schemas using Star, Snowflake, or Data Vault approaches to ensure long-term integrity and performance for analytics and AI. Implement strong validation and data quality practices.
  • Cross-Functional Collaboration: Partner closely with Data Scientists to ensure data is model-ready, with a strong focus on feature engineering and low-latency availability.


Requirements & Qualifications

Foundational Excellence

Bachelor’s or Master’s degree in Computer Science or equivalent experience, with deep expertise in Data Engineering fundamentals, including distributed systems, the CAP theorem, consistency models, and large-scale data processing.


Experience

Minimum 7+ years of professional experience in data engineering, with a proven track record in client-facing roles or high-growth environments spanning multiple projects, industries, or technology stacks.


Consulting & Stakeholder Management

Strong interpersonal and communication skills, with the ability to manage client expectations under tight timelines, explain complex technical concepts clearly, and contribute to solution scoping, architecture discussions, and pre-sales activities.


Must-Have Technical Expertise

  • Expert-level experience with Microsoft Fabric, Databricks, Snowflake , or equivalent modern data platforms
  • Proven experience with orchestration tools such as Azure Data Factory, Airflow, Dagster, or Prefect
  • Experience designing lakehouse architectures using medallion patterns
  • Hands-on experience with distributed processing frameworks such as Spark, Flink , or equivalent
  • Strong experience with streaming or event-driven systems such as Kafka, Event Hubs, or Spark Streaming
  • Proficiency with both relational databases (PostgreSQL, SQL Server ) and NoSQL environments (CosmosDB, MongoDB )
  • Advanced Python and SQL skills for building production-grade pipelines and platform components


Français


En tant qu’entreprise d’envergure internationale, nous collaborons avec des organisations de premier plan pour relever leurs défis les plus stratégiques grâce au Machine Learning et à l’ingénierie des données, afin de créer une valeur durable. En tant que firme-conseil en contact direct avec les clients, notre équipe doit faire preuve d’adaptabilité, de rigueur technique et d’une forte capacité à concevoir des systèmes de bout en bout pour divers secteurs d’activité en Amérique du Nord et ailleurs.


Nous sommes à la recherche de Data Engineers senior qui ne sont pas seulement des développeurs, mais aussi des architectes de plateformes et des conseillers de confiance. La personne idéale évolue avec aisance dans des environnements rapides, navigue entre différentes piles technologiques clients et adopte une approche centrée sur les fondamentaux des systèmes distribués et de la conception de plateformes de données modernes.


Dans ce rôle, vous travaillerez directement avec les parties prenantes chez nos clients afin de concevoir, mettre en œuvre et opérationnaliser des plateformes de données modernes qui alimentent l’IA, l’analytique et la prise de décision opérationnelle.


Responsabilités principales

  • Gestion client et conseil: Agir comme pont technique entre Yeji Data Lab et ses clients. Traduire les besoins d’affaires en feuilles de route techniques, expliquer des arbitrages complexes à des interlocuteurs non techniques et orienter les décisions d’architecture et de livraison.
  • Conception de systèmes et architecture: Diriger la conception de bout en bout d’architectures de données évolutives. Vous ne vous contenterez pas d’exécuter une spécification : vous définirez les fondations pour une ingestion, un stockage et un traitement fiables des données, adaptés aux besoins spécifiques de chaque client sur des plateformes cloud modernes.
  • Orchestration des données: Architecturer et mettre en œuvre des environnements de données modernes, principalement avec Microsoft Fabric, tout en s’adaptant aux piles technologiques propres aux clients lorsque requis. Vous serez responsable de l’orchestration avancée des données afin que les pipelines complexes soient automatisés, supervisés et résilients.
  • Ingénierie de pipelines: Développer et maintenir des pipelines à haut débit, en mode batch et streaming, pour soutenir le déploiement de solutions IA/ML.
  • Modélisation et qualité des données: Concevoir des schémas robustes selon les approches Star, Snowflake ou Data Vault afin d’assurer l’intégrité et la performance des données à long terme pour l’analytique et l’IA, tout en mettant en place de solides pratiques de validation et de qualité des données.
  • Collaboration interfonctionnelle: Collaborer étroitement avec les Data Scientists afin de garantir que les données soient prêtes pour les modèles, notamment en matière de feature engineering et de faible latence d’accès.


Exigences et qualifications


Excellence des fondations

Baccalauréat ou maîtrise en informatique, ou expérience équivalente, avec une compréhension approfondie des fondements de l’ingénierie des données : systèmes distribués, théorème CAP, modèles de cohérence et traitement de données à grande échelle.


Expérience

Minimum de 7 ans et plus d’expérience professionnelle en ingénierie des données, avec une expérience démontrée dans des rôles orientés client ou dans des environnements à forte croissance, sur plusieurs projets, secteurs ou piles technologiques.


Conseil et gestion des parties prenantes

Excellentes aptitudes relationnelles et de communication, avec la capacité de gérer les attentes des clients dans des délais serrés, de vulgariser des concepts techniques complexes et de contribuer au cadrage des solutions, aux discussions d’architecture et aux démarches de prévente.


Expertises techniques essentielles

  • Expérience de niveau expert avec Microsoft Fabric, Databricks, Snowflake ou des plateformes de données modernes équivalentes
  • Expérience démontrée avec des outils d’orchestration tels que Azure Data Factory, Airflow, Dagster ou Prefect
  • Expérience dans la conception d’architectures lakehouse selon les principes de l’architecture médallion
  • Expérience pratique avec des frameworks de traitement distribué tels que Spark, Flink ou équivalents
  • Solide expérience avec des systèmes de streaming ou orientés événements, tels que Kafka, Event Hubs ou Spark Streaming
  • Maîtrise des environnements relationnels (PostgreSQL, SQL Server ) et NoSQL (CosmosDB, MongoDB )
  • Excellentes compétences en Python et SQL pour développer des pipelines et des composantes de plateformes de données de niveau production
  • Banff, Alberta, Canada

Sprachkenntnisse

  • French
Hinweis für Nutzer

Dieses Stellenangebot stammt von einer Partnerplattform von TieTalent. Klicken Sie auf „Jetzt Bewerben“, um Ihre Bewerbung direkt auf deren Website einzureichen.