Filtrer par ville
ALTEN MAROC, Filiale du leader mondial de l’ingénierie et du conseil en technologie créé en 2008 et présent à Fès, Rabat, Tétouan et Casablanca, compte aujourd’hui plus de 2200 collaborateurs et vise un centre d’excellence de 3300 ALTENiens en fin 2027. Elle s’impose aujourd’hui comme un acteur stratégique dans l’accompagnement du développement professionnel des ingénieurs.
Notre mission : répondre aux ambitions technologiques de nos clients — grands donneurs d’ordre internationaux — dans les secteurs de l’automobile, du ferroviaire, de la R&D et de l’IT, des télécommunications et des médias.
Rejoindre ALTEN Maroc, c’est intégrer un écosystème d’excellence et bénéficier :
• D’un parcours de carrière personnalisé et évolutif
• D’une politique ambitieuse de développement des compétences
• D’un environnement de travail stimulant, collaboratif et porteur de sens
Vous aurez comme objectif de participer à la mise en place, à l’exploitation et à l’amélioration continue des pipelines de données de la Plateforme Data, dans une architecture « Data Centric », afin de garantir la fiabilité, la scalabilité, la performance et la sécurité des plateformes de données, tout en contribuant à l’automatisation, au monitoring et à la gestion des incidents.
Vous serez amené à :
Contribution à la mise en œuvre et à l’amélioration continue des pipelines de données
Automatisation des déploiements et des processus d’exploitation
Supervision des performances des plateformes Data
Gestion et résolution des incidents en production
Participation active aux activités DevOps autour de Kafka, Kubernetes et GCP
Collaboration étroite avec les équipes de développement et d’infrastructure
Garantie de la fiabilité, de la disponibilité et de la scalabilité des plateformes Data
Contribution aux démarches d’amélioration continue et d’optimisation des solutions existantes
Qualifications :
Diplômé(e) d’un Bac+5 en école d'ingénieur ou équivalent universitaire avec une spécialisation en informatique, ou justifiant d'une expérience significative équivalente
Expérience : Expertise confirmée (>7 ans) en Apache Kafka.
Une expérience en grande distribution est un plus.
Compétences requises :
Google Cloud Platform (GCP) : Google Kubernetes Engine (GKE) Cloud Storage Cloud SQL Cloud Monitoring Apache Kafka (expertise avancée) : Partitionnement, réplication, compaction Tuning des performances Gestion des topics et offsets Sécurité : TLS, SASL, ACL Supervision via Prometheus et Grafana Kubernetes : Création et gestion de clusters Déploiement applicatif Supervision et optimisation des performances DevOps : CI/CD, automatisation des déploiements Scripting : Bash, Python Bases de données relationnelles (concepts fondamentaux) Sécurité : bonnes pratiques et politiques d’accès
Compétences comportementales :
Forte capacité d’analyse et d’amélioration continue Autonomie et excellente gestion du temps Capacité de prise de recul et force de proposition Excellente communication écrite et orale (livrables & reporting) Esprit d’équipe et collaboration transverse Maîtrise des méthodologies Agiles (Scrum, Sprint Planning, Backlog
Restez vigilant face aux tentatives d’escroquerie.
Aucun employeur sérieux ne vous demandera de verser de l’argent pour obtenir un emploi.
Ne payez jamais de frais pour :
Soyez particulièrement prudent face aux offres proposant des salaires très élevés, des conditions très avantageuses ou des opportunités à l’étranger sans processus de recrutement clair.
En cas de doute ou si une annonce vous semble suspecte, merci de la signaler via notre formulaire de contact en sélectionnant l’objet : « Signaler une annonce d’emploi ».
Votre sécurité est notre priorité.