Description

En intégrant notre département Data, vous renforcerez l'équipe en place ayant pour mission de maintenir et développer notre entrepôt de données (Data Warehouse) ainsi que notre hub de données (Data Hub).

Data Backend Engineer

Notre client est une société basée à Lausanne

Missions

Sur la partie Data Warehouse :

Développer et maintenir les pipelines d'alimentation (ETL/ELT) en assurant leur performance, fiabilité et documentation.

Optimiser les traitements SQL et les performances d'accès aux données.

Administrer, monitorer et faire évoluer les environnements techniques du Data Warehouse (Jobs, Scripts, Automatisations, Tableau Software).

Contribuer à la mise en place de pratiques DataOps (Versioning, déploiement automatisé).

Sur la partie Data Hub :

Concevoir et développer les flux d'intégration et d'interopérabilité entre applications via le Data Hub.

Maintenir et faire évoluer les référentiels de données (MDM).

Développer et orchestrer les interfaces d'échange de données (API, flux SQL, Services d'intégration).

Garantir la qualité, la sécurité et la traçabilité des données échangées.

Participer à l'automatisation et à la supervision des traitements d'intégration (Monitoring & Alerting).

De manière transversale :

Assurer la stabilité, la performance et la maintenabilité des plateformes de données.

Documenter les sources, processus d'alimentation et flux inter-systèmes.

Contribuer à l'amélioration continue des pratiques techniques et à la modernisation des plateformes.

Profil du candidat

Diplôme d'ingénieur en informatique (HES / EPF) ou expérience jugée équivalente.

Minimum 5 ans d'expérience dans le domaine des données, idéalement sur des environnements Data Warehouse ou Data Hub.

Expertise en SQL (optimisation, tuning, diagnostic, indexes, plans d'exécution).

Expertise en Python pour le développement de pipelines de données (ETL/ELT, API, Scheduling, gestion de librairies).

Bonnes connaissances DataOps (Versioning, Intégration et déploiement continu, Git, Orchestration).

Connaissance ou intérêt pour les frameworks de pipelines modernes (dbt, dlt) et les outils d'orchestration (ex. Airflow, Jenkins, Prefect).

Bonne connaissance des bases de données relationnelles (MSSQL, PostgreSQL, Oracle) ; Bases NoSQL un plus.

Connaissances du maintien des environnements Windows et Linux (On-premise, VM).

Connaissances en data visualisation (Tableau Software un plus).

Esprit analytique, structuré et pragmatique.

Très bonnes aptitudes relationnelles, sens de la collaboration et de l'initiative.

UN PLUS

Familiarité avec Docker / Kubernetes pour le déploiement de traitements de données

Connaissances en Data virtualisation (Denodo un plus)

Expérience dans la mise en œuvre d'architectures Data Lake / Lakehouse

Expérience dans un projet cloud

Contribution à un projet ML ou LLM

Conditions et Avantages

Flexibilité en bon environnement de travail

jidac062daaen jit0102aen jpiy26aen