Mon Expertise

Data scientist indépendant

Chez vidasci, j’accompagne les entreprises, laboratoires et institutions dans la valorisation de leurs données scientifiques. Mon expertise repose sur une double compétence : une maîtrise avancée des outils de data science et une solide formation scientifique. À cela s’ajoute mon expérience en tant que gérant d’entreprise, qui me permet de comprendre les réalités opérationnelles et stratégiques du monde professionnel.
Je maîtrise également l’anglais, acquis durant mon parcours universitaire, ce qui me permet de travailler aisément avec des publications scientifiques et des partenaires internationaux.

Une base scientifique solide

Ma formation universitaire m’a permis d’acquérir une compréhension approfondie des sciences fondamentales et appliquées :

  • Chimie : analytique, organique, minérale, chimie quantique
  • Biochimie et biologie : biologie animale et végétale, physiologie, histologie
  • Physique : mécanique classique, optique, phénomènes ondulatoires, physique quantique
  • Statistiques et probabilités : fondements mathématiques de l’analyse de données
  • Sciences de la Terre et de l’environnement : notions d’écologie, géologie, climat
  • Agronomie : compréhension des systèmes biologiques appliqués à l’agriculture
  • Sciences médicales et pharmaceutiques : pathologie, immunologie, pharmacologie, toxicologie

Data Science

Je mets à profit une base technique complète en data science pour répondre aux enjeux analytiques les plus exigeants :
 
  • Collecte et structuration des données : intégration de sources hétérogènes, nettoyage, mise en qualité
  • Analyses exploratoires : visualisation avancée, détection de tendances, identification de variables clés
  • Modélisation prédictive : régression, classification, évaluation de performance et optimisation
  • Statistiques avancées : tests d’hypothèses, analyses multivariées, réduction de dimension
  • Programmation en R : développement de workflows reproductibles, automatisation, reporting dynamique
  • Machine learning (en développement) : exploration de modèles supervisés et non supervisés, apprentissage automatique
  • Appréhension des enjeux métiers : compréhension des problématiques liées à la comptabilité, aux ressources humaines, à la logistique, à la gestion financière et stratégique

Bioinformatique

Spécialiste des données omiques, je propose des analyses bioinformatiques sur mesure pour les projets en biologie moléculaire, génomique et transcriptomique :
 
  • Traitement de données RNA-seq et microarrays
  • Utilisation avancée de Bioconductor : DESeq2, edgeR, limma, enrichissement fonctionnel
  • Analyse de profils d’expression : clustering, PCA, visualisation interactive
  • Annotation biologique : intégration de bases de données (GO, KEGG, Reactome)
  • Interprétation biologique des résultats : mise en contexte fonctionnel et biomédical

Chimiométrie & Biométrie

Grâce à mon expérience en chimiométrie et biométrie, j’aide les acteurs des sciences du vivant à modéliser, prédire et améliorer leurs processus :
 
  • Analyses multivariées avec JMP : PCA, PLS, classification supervisée
  • Plans d’expériences (DoE) : conception, analyse et optimisation
  • Traitement de données spectrales et chimiques : extraction de signaux pertinents, modélisation
  • Biométrie appliquée : statistiques biologiques, modélisation de réponses biologiques

Ma formation universitaire m’a permis d’acquérir une compréhension approfondie des sciences fondamentales et appliquées :

  • Chimie : analytique, organique, minérale, chimie quantique
  • Biochimie et biologie : biologie animale et végétale, physiologie, histologie
  • Physique : mécanique classique, optique, phénomènes ondulatoires, physique quantique
  • Statistiques et probabilités : fondements mathématiques de l’analyse de données
  • Sciences de la Terre et de l’environnement : notions d’écologie, géologie, climat
  • Agronomie : compréhension des systèmes biologiques appliqués à l’agriculture
  • Sciences médicales et pharmaceutiques : pathologie, immunologie, pharmacologie, toxicologie
Je mets à profit une base technique complète en data science pour répondre aux enjeux analytiques les plus exigeants :
 
  • Collecte et structuration des données : intégration de sources hétérogènes, nettoyage, mise en qualité
  • Analyses exploratoires : visualisation avancée, détection de tendances, identification de variables clés
  • Modélisation prédictive : régression, classification, évaluation de performance et optimisation
  • Statistiques avancées : tests d’hypothèses, analyses multivariées, réduction de dimension
  • Programmation en R : développement de workflows reproductibles, automatisation, reporting dynamique
  • Machine learning (en développement) : exploration de modèles supervisés et non supervisés, apprentissage automatique
  • Appréhension des enjeux métiers : compréhension des problématiques liées à la comptabilité, aux ressources humaines, à la logistique, à la gestion financière et stratégique
Spécialiste des données omiques, je propose des analyses bioinformatiques sur mesure pour les projets en biologie moléculaire, génomique et transcriptomique :
 
  • Traitement de données RNA-seq et microarrays
  • Utilisation avancée de Bioconductor : DESeq2, edgeR, limma, enrichissement fonctionnel
  • Analyse de profils d’expression : clustering, PCA, visualisation interactive
  • Annotation biologique : intégration de bases de données (GO, KEGG, Reactome)
  • Interprétation biologique des résultats : mise en contexte fonctionnel et biomédical
Grâce à mon expérience en chimiométrie et biométrie, j’aide les acteurs des sciences du vivant à modéliser, prédire et améliorer leurs processus :
 
  • Analyses multivariées avec JMP : PCA, PLS, classification supervisée
  • Plans d’expériences (DoE) : conception, analyse et optimisation
  • Traitement de données spectrales et chimiques : extraction de signaux pertinents, modélisation
  • Biométrie appliquée : statistiques biologiques, modélisation de réponses biologiques
Formé via le parcours DataCamp, j’intègre les principes du data engineering pour garantir la fiabilité, la scalabilité et la traçabilité des pipelines de données :
 
  • Manipulation de données à grande échelle : bases de données relationnelles et non relationnelles
  • ETL (Extract, Transform, Load) : conception de workflows automatisés et robustes
  • Nettoyage et validation des données : gestion des formats, détection d’erreurs, normalisation
  • Initiation aux outils cloud et big data : introduction à Spark, Airflow, et aux architectures distribuées