Ingénieur DATA H/F

NeoFarm recrute !

À propos

En associant innovation technologique et agriculture durable, Neofarm incarne un modèle inédit de production agricole.

Nous produisons des légumes bio en appliquant un système qui est structurellement plus écologique, attractif, rentable et compétitif que les modes de production dominants aujourd’hui.

Notre mission est de donner accès au plus grand nombre à des légumes sains au quotidien, pour avoir un impact réel sur les modes de consommation, la santé des populations, et la souveraineté alimentaire de la France et de l’Europe. Pour y parvenir, nous avons développé une solution robotique complète, unique au monde, qui optimise les pratiques durables de l’agroécologie.

NeoFarm a amorcé une première phase de déploiement, en mettant en service entre 2022 et 2023 trois démonstrateurs aux alentours de l’IdF (28, 78, 60). Chaque ferme cultive des légumes sous 5000m² de serre. Cette première approche nous a permis d’éprouver notre modèle, et d’envisager désormais un passage à l’échelle.

Ainsi, une seconde phase de déploiement a démarré courant 2025. En 2026, notre objectif est de mettre en service notre premier site industriel (proche IdF), disposant de 12 Ha d’espace cultivé sous serre. Et d’ici 2027, notre objectif est d’avoir déployé 5 sites industriels en France (moitié nord).

Ainsi, NeoFarm devra assurer la gestion des données de l’ensemble de ses fermes, à plus grande échelle dans les années à venir.

Descriptif du poste

En tant qu’Ingénieur Data, vous formalisez et implémentez la stratégie de gestion des

données de l'entreprise, accompagnez l'implémentation des outils métiers optimisés sur la base de ces données et participez à la construction d'outils mobilisant l'intelligence artificielle.

Vos missions s’articulent autour de 4 axes de travail :

Stratégie et Architecture Data

-Définir et formaliser la stratégie de gestion des données en cohérence avec les objectifs métier

-Concevoir l'architecture technique des systèmes de données (data lakes, data

warehouses, pipelines)

-Établir les standards et bonnes pratiques de gouvernance des données

-Participer à la définition de la roadmap technologique data

Développement et Implémentation

-Développer et maintenir les pipelines de données (ETL/ELT)

-Implémenter les solutions de stockage et de traitement des données massives

-Optimiser les performances des systèmes de données existants

-Assurer l'intégration des différentes sources de données internes et externes

Outils Métiers et IA

-Accompagner les équipes métier dans l'identification de leurs besoins en données

-Développer des outils d'analyse et de visualisation adaptés aux besoins métier

-Concevoir et implémenter des solutions d'intelligence artificielle et de machine

learning

-Collaborer avec les Data Scientists pour la mise en production des modèles

Qualité et Sécurité

-Garantir la qualité, la fiabilité et la sécurité des données

-Mettre en place des processus de monitoring et d'alerting

-S’assurer de la conformité aux réglementations (RGPD, etc.)

-Documenter les processus et architectures mises en place

Le poste se veut évolutif.

Profil recherché

● Master/Ingénieur en Informatique, Mathématiques Appliquées, ou domaine équivalent

● Formation complémentaire en Data Science/Big Data appréciée

● 1-3 ans d'expérience en développement et architecture de systèmes de données

● Expérience dans la gestion de projets data complexes

● Expérience en intelligence artificielle et machine learning souhaitée

● Vous êtes polyvalent : vous êtes à l’aise avec la manipulation de données et le prototypage d’outils d’analyse et de visualisation

● Débrouillard, vous aimez trouver et mettre en œuvre des solutions.

● Vous êtes dynamique et proactif, vous travaillerez dans un environnement start-up /agritech.

● Vous savez vulgariser des problèmes complexes. Vous avez le sens du « service client».

Compétences Techniques

Langages de programmation :
-Python (pandas, NumPy, scikit-learn)
-SQL avancé
-Php / HTML / Javascript
Technologies Big Data :
-Apache Spark, Hadoop
-Apache Kafka, Apache Airflow
-Elasticsearch, MongoDB
-Docker, Kubernetes
IA et Machine Learning :
-TensorFlow, PyTorch, scikit-learn
-MLOps (MLflow, Kubeflow)
-Techniques de NLP, Computer Vision
-Intégration de modèles tiers via API

Process de recrutement

  1. Entretien par téléphone avec la DRH

  2. Entretien avec le sécrétaire générale

  3. Challenge technique

  4. Entretien Directeur général

Si vous ne cochez pas 100 % des critères mais que vous pensez être la personne qu’il nous faut, postulez et expliquez-nous pourquoi.

Informations complémentaires

  • Type de contrat : CDI
  • Lieu : Saint-Nom-La-Bretèche
  • Télétravail ponctuel autorisé