Xavier Cuniberti

Data Engineer | Automatisation, Pipelines de données & IA appliquée · x.cuniberti@gmail.com

Data Engineer spécialisé dans la conception et la mise en production de pipelines de données (ETL, APIs, cloud)..

J'interviens sur l'automatisation des traitements, la structuration et l’analyse de données, et le déploiement de services data fiables, avec l’intégration d’outils d’IA.

Mon objectif principal est aujourd’hui d’intégrer une équipe en tant que Data Engineer (CDD ou CDI). Mon activité freelance me permet de maintenir une pratique opérationnelle continue et de rester ouvert à des missions longues.


Experience

Data Engineer – Freelance

ComeUp
  • Conception de pipelines ETL automatisés (Python, Airflow, SQL, APIs)
  • Collecte, nettoyage et structuration de données hétérogènes
  • Déploiement d'applications data (Docker, cloud)
2025 - Aujourd'hui

Professeur de SVT & enseignement scientifique

Rectorat de Guyane
  • Conception de supports numériques et projets pédagogiques
  • Analyse et exploitation de données scientifiques
  • Vulgarisation, structuration de l’information, rigueur méthodologique
2017 - Mars 2023

Ingénieur d’étude

CNRS / Université de Guyane
  • Gestion et analyse de données expérimentales complexes
  • Traçabilité, normes, documentation technique
  • Travail en environnement scientifique exigeant
Janvier 2010 - Janvier 2015

Créateur et administrateur de plateforme e-commerce

Guyavap.fr
  • Gestion de projet numérique en autonomie
  • Suivi de données commerciales (Excel, reporting)
  • Optimisation de processus et outils
Mars 2015 - Décembre 2018

Formation

DATA ENGINEER

DataScientest - Mines Paris PSL Executive Education

Formation intensive en ingénierie des données, orientée conception et mise en production de pipelines data. Elle couvre l’ensemble du cycle de vie de la donnée : collecte, traitement, stockage, exposition via API et déploiement en environnement cloud, avec une forte composante d’automatisation et d’orchestration.

Cette formation a donné lieu à la réalisation d’un projet en équipe, dans des conditions proches de celles rencontrées en entreprise : une plateforme automatisée d’analyse du marché de l’emploi DataMarket.

Elle a également permis la validation du bloc de compétences RNCP “Déployer une solution d’intelligence artificielle”.

Octobre 2023 - Octobre 2024

Master Ingénierie de la Biodiversité

Université Aix Marseille

Formation scientifique orientée collecte, analyse et exploitation de données expérimentales complexes appliquées à la biodiversité terrestre, avec une forte exigence méthodologique et documentaire.

Elle a développé ma curiosité scientifique, ma capacité d’apprentissage continu et mon envie de contribuer à des projets utiles à la société, aujourd’hui mobilisées dans le data engineering.

Septembre 2006 - Septembre 2009

Compétences

Data Engineering & Programmation

  • Python (pipelines, automatisation, APIs)
  • SQL (requêtes, structuration, exploitation)
  • APIs REST (conception, consommation)

Automatisation & Pipelines

  • Pipelines ETL (batch, planifiés)
  • Orchestration de traitements (Airflow)
  • Structuration et nettoyage de données

Déploiement & Exploitation

  • Docker (conteneurisation d’applications data)
  • Déploiement sur VM / VPS (environnements Linux)
  • Supervision et exploitation opérationnelle

Données, Qualité & Collaboration

  • Qualité et fiabilité des données
  • Documentation technique, transmission des connaissances et pédagogie appliquée
  • Travail en équipe et projets collaboratifs
  • Sens du service et des usages métiers

Réalisations

DataMarket – Plateforme automatisée d’analyse du marché de l’emploi data

Contexte et objectif

Concevoir une plateforme capable de collecter, structurer et analyser automatiquement des offres d’emploi afin d’identifier les compétences, technologies et tendances du marché data.

Ce que j’ai mis en place
  • Pipeline ETL automatisé (collecte, nettoyage - transformation, chargement de données) (Python)
  • Orchestration des traitements et planification quotidienne (Airflow)
  • API de consultation des données (FastApi)
  • Interface de visualisation interactive (Dash)
  • Déploiement cloud et supervision de l’ensemble (Docker - AWS)
Résultats concrets
  • Environ 22 000 offres collectées et analysées
  • Réduction drastique du temps d’analyse (de plusieurs heures à quelques minutes)
  • Base exploitable pour le pilotage, la veille et l’aide à la décision
Compétences démontrées

Automatisation · pipelines ETL · APIs · structuration de données · déploiement · exploitation opérationnelle

YanaChat – Assistant conversationnel contextualisé pour la Guyane

Contexte et objectif

Développer un assistant conversationnel capable de fournir des réponses contextualisées sur la Guyane, en s’appuyant sur des sources locales fiables et des traitements automatisés.

Ce que j’ai mis en place
  • Collecte et structuration de sources hétérogènes
  • Mécanismes de recherche et de contextualisation des réponses (agent + recherche web ciblée, évolution vers RAG)
  • Intégration d’outils d’IA pour l’analyse textuelle et l’assistance conversationnelle (LLM - API Mistral AI)
  • Déploiement d’une application accessible en ligne (VPS – hébergement européen conforme RGPD)
Intérêt du projet
  • Mise en pratique de l’IA de manière opérationnelle
  • Problématiques proches de celles rencontrées en entreprise (qualité des données, pertinence des réponses, fiabilité du service)
  • Projet évolutif, pensé pour être maintenable et extensible
Compétences démontrées

Traitement de données textuelles · intégration d’IA · conception de services data · mise en production

Freelance – Projets data et automatisation

En parallèle de ma recherche de poste salarié, je réalise des missions freelance ciblées en data engineering. Cette activité me permet de maintenir une pratique opérationnelle régulière, de consolider mes compétences et de répondre à des besoins concrets lorsque le format mission est privilégié par les recruteurs ou les clients.

Les missions portent principalement sur :

  • automatisation de collectes de données
  • structuration et nettoyage de données
  • pipelines ETL légers
  • déploiement d’outils data

Cette activité est secondaire et adaptable, et peut être suspendue ou arrêtée en cas d’intégration dans un poste salarié à temps plein.