informations générales
Dijon
Les principales tâches confiées seront :
Architecture & Modélisation :
- Concevoir des architectures data robustes (Data Lake, Data Warehouse, Lakehouse)
- Définir et modéliser les schémas de données (modèle en étoile, modèle relationnel, Data Vault, parquet/Delta, etc.)
- Participer aux choix structurants : stockage, orchestration, catalogage, gouvernance.
-Conception, développement et maintenance des traitements de données (pipelines/dataflow/batch) :
- Développer et industrialiser les traitements de données à forte volumétrie
- Optimiser les performances (partitionnement, parallélisation, tuning SQL)
- Implémenter des traitements data batch, temps réel ou quasi-temps réel (Kafka, NIFI.)
- Faire un usage responsable et éthique des données - mise en œuvre de mesures de protection des données pour assurer la conformité à la législation en vigueur (ex RGPD)
- Assurer la maintenance corrective des traitements
Plateformes cloud et outillage :
- Déployer et maintenir les solutions cloud data (Azure, AWS)
- Mettre en place des tests automatisés (unitaires, data tests, validation de schéma).
Orchestration, Monitoring, fiabilité & sécurité :
- Mettre en place des alertes et une supervision pour garantir une meilleure réactivité en cas d'absence de donnée ou d'incohérence
- Garantir la sécurité des données : chiffrement, gestion des accès, audit
- Orchestrer les traitements, surveiller leurs performances, leurs disponibilités et leurs exécutions.
Outils de dataViz pour les métiers :
- Concevoir et développer des outils DataViz pour les métiers et l'AOM
Projet, collaboration & gouvernance :
- Participer à la définition et à l'analyse des besoins et évaluer des charges des projets/solutions à développer.
- Travailler de façon autonome avec les métiers/prestataires pour préciser affiner les besoins quand cela est nécessaire
- Déterminer, formaliser, planifier et chiffrer les tâches nécessaires à la réalisation des projets
- Reporter les arbitrages à réaliser à son responsable et être force de proposition
- Documenter l'architecture, les modèles, les pipelines et indicateurs dans un Data Catalog
- Participer à l'évolution du Framework data interne (standards, bonnes pratiques)
- Reporter son activité auprès de sa hiérarchie
- Être pro-actif sur l'amélioration


