CAPFI Vitadata est l’entité experte du groupe CAPFI spécialisée en Big Data et Data Science. 

Nous accompagnons nos clients sur leurs projets Data dans l’objectif de :

  • Transformer leurs données en intelligence métier

  • Construire une architecture Data Centric contrôlée et évolutive

Notre rôle est d’accompagner :

  • Les Directions Marketing, Digitales, Risques, Actuariat et Innovation dans leurs enjeux analytiques et prédictifs.

  • Les Directions des Systèmes d’Information (DSI) au travers de nos expertises en Méthodologies Agile et en DevOps . 

Nous intervenons auprès de clients aux secteurs d’activité variés : Energie, Retail, Media, Transport, Banque, Assurance..

Nos Data Engineers accompagnent nos clients sur les phases de POC et/ou d’industrialisation de leurs projets Big Data.

Ils travaillent dans des contextes Agile, en s’appuyant sur une démarche DevOps.

 

Leur mission :

  • Concevoir, développer et tester des algorithmes de collecte et de traitement de gros volumes de données sous Scala, Python ou Java

  • Automatiser et optimiser les flux de données et leurs visualisations en dashboards

  • Industrialiser les traitements, la qualité et l’intégrité des données

  • Participer à la Modélisation et à la Gouvernance des données (process, normalisation, référentiel,…)

  • Contribuer à la scalabilité, la sécurité, la stabilité et la disponibilité des données de la plateforme

  • Analyser les données pour répondre aux questions métiers et participer à l’évolution de l’architecture Big Data

  • Concevoir, Développer et Industrialiser des modèles de Machine Learning, Deep Learning, en collaboration avec les Data Scientists

  • Appliquer une démarche CI/CD (Git, Jira, Jenkins) 

 

Les compétences techniques nécessaires sont :

  • Expérience de 5 ans minimum en développements Scala, Python ou Java

  • Expérience de 2 ans minimum sur SPARK et sur le traitement des flux en streaming

  • Expertise sur Hadoop (Hive, HBase, HDFS) sous distributions MapR ou Hortonworks

  • Expérience souhaitée sur ELK, Terraform, NoSQL,…

  • Fort background en Modélisation de données ou ETL

  • Maîtrise des briques analytiques des clouds AWS, GCP ou Azure

  • Sensibilisation à la démarche CI/CD tools (Git, Jenkins)

  • La connaissance de Docker, Kubernetes et Ansible est un plus

  • Mise en œuvre des méthodes Agile (Scrum, Kanban,…)

  • Anglais souhaité

 

Votre état d’esprit :

  • Vous êtes curieux de tout, et vous êtes à l’écoute des personnes et des dernières tendances

  • Vous aimez collaborer sur des projets et contribuez à un partage de connaissances

 

Vos études :

 

Diplômé d’une école d’Ingénieur, d’un Master2 en Informatique ou Statistique/Mathématique avec une spécialisation en Big Data

 

Et si la société de Conseil que vous recherchez existait vraiment ?

Qui saurait vous accompagner dans votre parcours de consultant et répondre à vos ambitions,

Qui vous impliquerait dans le développement de son Lab, dans l’animation de workshops, dans la transmission du savoir

Une entreprise engagée où l’humain est au cœur des préoccupations quotidiennes et qui vous permettrait de mener une action solidaire chaque jour de mission travaillé, alors adressez nous votre candidature sans attendre.

Notre processus de recrutement

Rejoignez-nous maintenant

Vous adhérez à notre culture d'entreprise et à nos valeurs et vous souhaitez vous challenger au quotidien ?
Adressez-nous votre CV ici !

Voir plus d'offres

Vous serez peut-être interessé par

En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de traceurs pour réaliser des statistiques de visite (en savoir plus).