Filtrer par ville
A propos d’Inetum, Positive digital flow :
Inetum est une ESN agile, une société de services et de solutions digitales, et un groupe international qui aide les entreprises et institutions à tirer le meilleur du digital flow. Dans un contexte de mouvement permanent, où les besoins et les usages se réinventent sans cesse, le groupe Inetum s’engage auprès de tous les acteurs pour innover, s’adapter continuellement et garder une longueur d’avance. Avec son profil de multi-spécialiste, Inetum met au service de ses clients une combinaison unique de proximité, d’organisation sectorielle et de solutions de qualité industrielle. Présent dans plus de 27 pays, le Groupe compte près de 27 000 collaborateurs et a réalisé en 2021 un chiffre d’affaires de 2,2 milliards d’euros.
Au sein de l’équipe Data, vous prenez en charge la conception, l’industrialisation et l’optimisation de pipelines de données sur un environnement Big Data (Hadoop/HDFS, Hive, Spark). Vous garantissez la qualité, la traçabilité et la disponibilité des datasets qui alimentent la BI (Power BI) et les besoins analytiques des métiers.
Responsabilités clés :
Ingestion & Modélisation
Intégrer des données depuis plusieurs SGBD (PostgreSQL, SQL Server, MySQL, IBM DB2) et fichiers via Sqoop/ETL.
Structurer les zones bronze/silver/gold et définir les schémas (Hive).
Traitements distribués
Développer et optimiser des jobs Spark / PySpark (partitionnement, broadcast, cache, bucketing). Écrire des transformations SQL/HiveQL performantes et maintenables.
Orchestration & Production
Concevoir et maintenir des DAGs Airflow (scheduling, retry, SLA, alerting). Industrialiser via GitLab (CI/CD), scripts Shell et bonnes pratiques DevOps Data.
Qualité & Gouvernance
Mettre en place des contrôles (complétude, unicité, référentiels), tests unitaires/data tests et documentation (catalogue, dictionnaires). Assurer la traçabilité (lineage) et la gestion des incidents (RCAs, runbooks).
Valorisation & BI
Publier des datasets “analytics-ready” et optimiser l’alimentation Power BI (vues matérialisées, agrégations).
Contribuer au calcul et à la fiabilisation des KPI.
Profil du candidat:
2 à 4 ans d’expérience en Data Engineering/Big Data, avec réalisations probantes en PySpark/Hive et Airflow. Formation Bac+5 (Master Big Data & IA, Ingénierie Data, ou équivalent). Aisance sur les SGBD (PostgreSQL, SQL Server, MySQL, IBM DB2) et l’optimisation de requêtes. Habitude des environnements Linux et scripting Shell. Capacité à documenter, tester et monitorer des pipelines en production.
Stack technique :
Traitement Big Data : Spark / PySpark, Hive, HDFS (+ MapReduce/Impala appréciés). Langages & Data : Python, SQL avancé, Shell (bash). Orchestration : Apache Airflow. Dataviz/BI : Power BI (dashboards, datasets). OS & Outils : Linux (Ubuntu/CentOS), Git/GitLab, CI/CD. Plus : Pandas/Numpy pour prototypage, notions MongoDB/HBase.
Compétences comportementales :
Rigueur et sens de la qualité (tests, revues de code, documentation). Esprit d’équipe et communication claire avec les métiers et la BI. Autonomie sur l’investigation d’incidents et proactivité d’amélioration continue. Orientation résultats : respect des SLA et culture de la performance.
Restez vigilant face aux tentatives d’escroquerie.
Aucun employeur sérieux ne vous demandera de verser de l’argent pour obtenir un emploi.
Ne payez jamais de frais pour :
Soyez particulièrement prudent face aux offres proposant des salaires très élevés, des conditions très avantageuses ou des opportunités à l’étranger sans processus de recrutement clair.
En cas de doute ou si une annonce vous semble suspecte, merci de la signaler via notre formulaire de contact en sélectionnant l’objet : « Signaler une annonce d’emploi ».
Votre sécurité est notre priorité.