Aller au contenu

Data Engineer

  • Hybride
    • Paris, Île-de-France, France

Description de l'offre d'emploi

À propos de Lucky cart


Lucky Cart est une MarTech française installée au cœur du 2ème arrondissement de Paris.

Sa mission : Powering Smart Commerce. Comment ? En combinant le potentiel des données de transaction first-party avec la puissance du e-retail media.

Lucky Cart utilise la data science et ses algorithmes propriétaires de machine learning pour analyser les données des tickets de caisse des enseignes de la grande distribution et construire un profil dynamique unique pour chaque shopper id. Ce profil est ensuite activé en temps réel via des offres ultra-personnalisées pour chaque client, directement intégrées aux sites et applications e-commerce des enseignes. A la clé : des activations engageantes, simples et ludiques à destination de 18,5 millions de shoppers français et un levier de croissance business pour les marques et enseignes.

En s’appuyant sur une expertise commerciale pointue, mêlant à la fois expérience dans la grande consommation, mise en place de partenariats de confiance dans la durée et performance, Lucky Cart couvre aujourd’hui 90% du parc e-commerce de la grande distribution en France avec les enseignes Intermarché, E.Leclerc, Carrefour, Coopérative U & Monoprix ; et compte plus de 210 marques et agences partenaires telles que Coca-Cola, Ferrero, Mondelèz, General Mills, L’Oréal et Barilla.

Grâce à la combinaison de spécialistes dans les domaines clés de la MarTech, Lucky Cart est devenu un acteur clé du retail média français avec une croissance annuelle à 2 chiffres, des objectifs de développement international et le lancement de nouvelles offres.

Le travail chez Lucky Cart repose sur une forte collaboration entre les équipes, dans une ambiance bienveillante et authentique, tout en adoptant une approche pragmatique et en faisant preuve d’adaptation continue pour atteindre ensemble leurs ambitions.


À propos du pôle Data

Au sein de la Tech, rattachée au Lead Data, cette équipe jeune, haute en diversité et en talent, tacle les défis de la Tech dans le retail média, de l’ingestion à l’exploitation, en passant par l’orchestration des flux. L’équipe évolue dans un environnement cloud-first, avec un focus sur la scalabilité, la fiabilité et la performance des pipelines de données. Elle adopte une méthodologie agile, complétée par des rituels de veille technologique et d’innovation, et collabore étroitement avec les équipes Produit, Engineering et AI, favorisant la cohérence technique et l’impact métier.

Notre modern data stack est centrée sur Python, SQL, dbt, Airflow et BigQuery, couvrant toute la chaîne de traitement et de transformation des données.

Descriptif du poste

Au sein de l’équipe Tech & Data, tu participeras à la conception, l’industrialisation et l’optimisation de nos pipelines de données.

Ta mission : transformer des volumes importants de données en flux fiables, scalables et automatisés, au service de nos produits data et de nos analyses business.

Tu travailleras main dans la main avec les équipes Produit, Data Science et Backend, pour assurer la qualité, la performance et la cohérence de la donnée à chaque étape du cycle de vie, de l’ingestion à l’exposition.

Ce poste est fait pour toi si tu aimes construire, orchestrer et fiabiliser des systèmes data modernes, dans une équipe à taille humaine où chaque décision technique a de l’impact.


Missions

  • Concevoir, développer et maintenir des pipelines de données robustes et évolutifs,

  • Orchestrer les traitements data via des outils comme Airflow,

  • Garantir la qualité, la traçabilité et la fiabilité des données tout au long de la chaîne,

  • Participer à la modélisation et à la structuration du data warehouse sur BigQuery via dbt,

  • Collaborer étroitement avec les Data Analysts et Data Scientists pour industrialiser les traitements et exposer les datasets,

  • Gérer les problématiques de scalabilité, performance et résilience sur de grands volumes de données,

  • Contribuer à la mise en place de bonnes pratiques d’ingénierie data : tests, CI/CD, monitoring, sécurité et documentation,

  • Participer activement à la veille technologique et proposer des évolutions pertinentes sur la stack,

  • Travailler en méthodologie agile, dans une logique d’amélioration continue et de collaboration.


Rejoindre Lucky cart, c’est


  • Un poste clé à très forte valeur ajoutée puisqu’au cœur de la stratégie de développement de Lucky cart,

  • Une ambiance de travail “startup” (Work Hard / Play Hard),

  • Un encadrement complet par des professionnels expérimentés,

  • De sérieuses perspectives d’évolution (encadrement, périmètre),

  • Une immersion dans un des secteurs les plus dynamiques du moment : le e-retail media,

  • Et un cadre de travail stimulant : centre de Paris, tickets resto, mutuelle prise en charge, et ambiance conviviale.


Pré-requis du poste

Compétences recherchées

  • Solide maîtrise de Python, et expérience concrète dans l’écriture de modules d’orchestration ou de traitements data,

  • Maîtrise du SQL et compréhension des principes d’optimisation et modélisation de données,

  • Bonne connaissance des bases NoSQL et de leur intégration dans les flux de données,

  • Expérience avérée sur dbt pour modéliser, documenter et fiabiliser les transformations,

  • Bonne connaissance d’un framework d’orchestration (Airflow, Dagster, Prefect…),

  • Expérience sur Google Cloud Platform (GCP) : BigQuery, Cloud Functions, Pub/Sub, etc.,

  • Confort avec Shell / scripting Linux, pour l’automatisation et le debugging de jobs data,

  • Pratique de Docker pour le packaging et l’exécution des pipelines et conteneurs,

  • Culture des pratiques d’ingénierie logicielle : versioning Git, tests, CI/CD, monitoring, sécurité, documentation,

  • Capacité à comprendre le besoin métier et à le traduire en architecture data robuste,

  • Esprit d’analyse, rigueur et curiosité technique,

  • Goût pour le partage de connaissances et la collaboration dans une équipe exigeante et bienveillante.

Atouts complémentaires

  • Connaissance du secteur de la grande distribution ou du retail media,

  • Expérience dans une phase de scale-up ou de structuration d’équipe.

Profil

  • Bac +5, école d’ingénieur ou équivalent,

  • Au moins 2 ans d’expérience en data engineering,

  • Anglais courant.

ou