Disponibilité : À partir de décembre 2024
À propos de : Il s’agit de 2 Applications innovantes dédiées au coaching en ligne,
permettant aux utilisateurs d'accéder à des services variés et de bénéficier d'une
expérience personnalisée grâce à l'intégration de technologies avancées de machine
learning et d'intelligence artificielle.
Description du poste : Nous recherchons un Data Engineer talentueux et expérimenté
pour rejoindre notre équipe de développement et participer activement à la conception
et à l'optimisation de notre infrastructure de données. Le candidat idéal contribuera à la
collecte, au traitement, et à la gestion de grands volumes de données, tout en veillant à
leur disponibilité et leur qualité pour les besoins analytiques et de machine learning. Il
préparera le travail en amont pour permettre l'intégration future d'un Data Scientist.
Missions principales :
• Concevoir et développer des pipelines ETL robustes pour intégrer, transformer et
charger des données provenant de sources multiples.
• Optimiser la collecte et le traitement des données pour garantir leur fiabilité et leur
accessibilité.
• Préparer et structurer des données exploitables pour faciliter le travail futur du
Data Scientist.
• Assurer la maintenance et l'évolution des bases de données (relationnelles et non
relationnelles) utilisées par l'application.
• Implémenter des solutions de stockage et de gestion de données à grande échelle
(Data Warehousing).
• Veiller à la sécurité des données et à la conformité aux réglementations en vigueur
(RGPD).
• Automatiser les processus de sauvegarde et de récupération des données.
• Surveiller et améliorer continuellement la performance des systèmes de
traitement de données.
• Solide expérience (3 à 5 ans minimum) en tant que Data Engineer, idéalement
dans des projets de grande envergure.
• Excellente maîtrise des outils ETL (Talend, Apache Spark, etc.).
• Expertise en bases de données : MySQL, PostgreSQL, MongoDB, et systèmes de
Data Warehousing (Redshift, BigQuery).
• Compétences avancées en langages de programmation : Python, Java.
• Connaissances des technologies de cloud computing (AWS, Azure, GCP).
• Maîtrise des outils de versionnage de code tels que Git.
• Expérience en gestion de la qualité des données et en optimisation des flux de
données.
• Capacité à documenter rigoureusement les processus et pipelines mis en place.
• Esprit analytique, rigueur, et capacité à résoudre des problèmes complexes.
• Capacité à travailler en équipe et à collaborer avec des profils techniques et non
techniques.
Compétences appréciées :
• Connaissances en machine learning et compréhension des besoins des Data
Scientists.
• Expérience dans des environnements de développement agile (Scrum, Kanban).
• Capacité à proposer des solutions innovantes pour optimiser la collecte et
l'analyse de données.
• Bon niveau de communication en français et capacité à expliquer des concepts
techniques.
Formation :
• Diplôme d'ingénieur ou master en informatique, science des données, ou dans un
domaine connexe.
Pourquoi nous rejoindre ?
• Participer au développement d'une application innovante et en forte croissance.
• Intégrer une équipe dynamique, passionnée et orientée vers l'excellence
technologique.
• Opportunité de travailler sur des projets stimulants qui allient data engineering et
machine learning.
• Flexibilité de travail en télétravail complet