Statisticien et data scientist, deux métiers à ne pas confondre

7 juillet 2020

L a synonymie n’existe pas, et c’est peut-être bien là l’information fondamentale de cet article. Nous nous construisons avec l’idée que deux mots distincts peuvent avoir le même sens. Nous sommes régulièrement encouragés à éviter les répétitions par tous les moyens, quitte à utiliser un mot qui n’exprime pas tout à fait notre pensée. Nombreux sont pourtant les universitaires à répéter inlassablement que la langue française est riche et complexe, et qu’il serait absurde de créer deux mots différents ayant exactement le même sens.


Cet article a pour objectif d’expliquer pourquoi les métiers de data scientist et de statisticien ne peuvent pas être confondus ou considérés comme identiques. On parle donc de comparer un mot de la langue française et… un anglicisme. Le problème avec cette dernière catégorie, c’est qu’on se croit vite tout permis. Quand on sait en plus qu’il s’agit d’un anglicisme dont le sens est en constante évolution, on a envie de jeter le stylo (ou le clavier) et d’abandonner face à la difficulté de la tâche. Il est pourtant primordial de comprendre pourquoi le terme de data scientist a émergé et en quoi ce métier diffère des autres métiers existants, en particulier celui de statisticien.


Nous ne chercherons pas ici à comparer le champ des statistiques avec celui de la data science. Cette précision est importante car la data science n’est pas composée exclusivement de data scientists. On y trouve pêle-mêle des data engineers, des machine learning engineers, des data analysts, des products owners et même des statisticiens. C’est à s’y perdre n’est-ce pas ? On ne cherche pas non plus à comparer des outils de machine learning avec des outils statistiques. Non, il s’agit bien de traiter des différences entre deux métiers.


La première des différences est évidente : l’un de ces métiers est beaucoup plus ancien que l’autre. Les premiers statisticiens  (1)  sont apparus durant le XVIIIème siècle (Thomas Bayes pour n’en citer qu’un), avec une réelle émergence de la discipline le siècle suivant. Les termes de data science et data scientist ne sont utilisés que beaucoup plus tardivement à la fin du XXème siècle, en 1987  (2) .

Une autre différence majeure est que les compétences de recherche sont indispensables pour exercer le métier de data scientist. La première raison à cela est la diversité et la constante augmentation du nombre d’outils. Un data scientist doit être en perpétuelle montée en compétences tout en maintenant une routine de veille sur toutes les innovations du domaine. Cela est en tout point comparable à la capacité d’un chercheur à effectuer l’état de l’art de son champ de recherche à tout moment. La seconde raison justifiant la nécessité de ces compétences est la structuration même des missions des data scientists. Ces dernières peuvent démarrer à un stade où le bénéficiaire n’a pas encore défini précisément son besoin ou que sa formulation n’est pas en adéquation avec les outils disponibles.


Dire : “J’ai besoin de simuler l’ensemble de la société humaine à la maille de l’être humain” n’est pas un besoin en adéquation avec les possibilités de notre époque. C’est au data scientist d’accompagner ce dernier pour identifier les progressions possibles à l’aide des différentes sources de données voire parfois d’identifier de nouvelles sources de données que l’interlocuteur n’avait pas identifiées. Tout ce travail préliminaire est par nature absent du métier de statisticien dont le travail est d’appliquer des outils de statistiques à un problème cadré et bien défini.


Les outils du statisticien – le logiciel R étant l’un des plus connus – n’en restent pas moins inclus dans ceux du data scientist, qui doit par conséquent avoir des compétences en statistiques. La question qui vient immédiatement est celle de la nature des autres outils du data scientist. Ces derniers n’émergent pas directement du champ des statistiques mais de la théorie de l’apprentissage statistique. Vous l’aurez compris, ce sont ceux que nous regroupons habituellement dans le champ du machine learning. À la différence des outils du statisticien, les outils de machine learning ont pour objectif d’entraîner un algorithme pour prédire de futurs résult ats (3), sans nécessairement que les étapes de calcul soient interprétables. Cette approche ayant été développée conjointement avec l’augmentation de la puissance de calcul informatique, aucun de ces outils ne peut être utilisé autrement qu’avec un ordinateur. 



Une dernière grande différence entre le métier de data scientist et celui de statisticien est leur caractère pluridisciplinaire, beaucoup plus développé dans le premier cas que dans le second. Il est en effet requis pour un data scientist d’avoir une bonne connaissance d’un ou plusieurs champs disciplinaires scientifiques (physique, chimie, biologie…). Il est même de plus en plus fréquent d’étendre cette recherche de pluridisciplinarité au-delà des sciences dites “dures”, notamment du fait de l’émergence des systèmes complexes ou encore de l’éconophysique, pour n’en citer que deux. C’est d’ailleurs cette différence qui motive les entreprises à recruter des data scientists dans des domaines plus variés que le simple domaine des mathématiques ou de l’informatique.


Nous avons par cet article voulu évoquer brièvement les différences les plus importantes entre les deux métiers. Cela ne nous a pas empêché pour autant de faire ressortir les points communs qui les relient et de mettre en valeur le fait que le métier de data scientist ne pourrait exister sans l’émergence quelques siècles plus tôt du domaine des statistiques ou plus récemment de la forte augmentation de la puissance de calcul.


Gardons également à l’esprit que la Data Science tout entière est en perpétuelle évolution et qu’aucun consensus général n’existe sur sa définition. La réponse sera en effet différente que vous vous placiez dans un grand groupe ou une petite start up ou bien encore que vous vous attachiez plus à la sémantique qu’aux considérations des diverses personnes autour de vous.




(1) : Bien que l’on pourrait dater la première apparition des statistiques à l’époque des mathématiques précolombiennes, nous n’évoquerons ici que les mathématiques modernes (qui correspond au réel avènement du champ des statistiques mathématiques).

(2) :  Data Science and Its Applications, préface, Academic Press, 1995.pdf  

(3) : Il s’agit ici d’un constat global. Il existe en effet des algorithmes à la frontière entre statistique et machine learning, comme les algorithmes de clustering.

Ressources Agaetis

par Achats Agaetis 26 novembre 2025
Le contexte du projet : Groupe Aérospatial souhaitait optimiser le temps de contrôle dimensionnel des réservoirs de son lanceur spatial. Les méthodes traditionnelles, longues et peu satisfaisantes, ralentissaient la production et augmentaient les risques d’erreurs. Le besoin était de développer une application de contrôle qualité et dimensionnel intégrant de nouveaux moyens de mesure plus rapides et précis. L’objectifs : L’objectif principal était de concevoir et déployer une application installée sur un PC concentrateur capable de : lancer différents programmes de contrôle dimensionnel, intégrer des technologies de mesure avancées (profilomètres lasers, trackers laser), et améliorer la précision et la répétabilité des contrôles. Durée de mission : Mission de plusieurs mois, de la conception logicielle à la formation des équipes, en passant par l’intégration et les tests. Mise en œuvre : Agaetis a déployé une approche technique et collaborative : Développement de l’application : architecture logicielle adaptée aux besoins d’intégration industrielle. Collecte et traitement des données : intégration des mesures issues des machines à commande numérique, trackers laser et profilomètres. Optimisation des processus : automatisation des contrôles pour gagner en rapidité et réduire les erreurs. Accompagnement & formation : transfert de compétences aux équipes internes pour assurer la continuité. Résultats obtenus : Temps de contrôle réduit : amélioration notable de la productivité. Précision accrue : fiabilisation des mesures grâce à l’intégration de nouvelles technologies. Réduction des erreurs : contrôles plus rapides et répétables. Compétences préservées : maintien de la connaissance technique dans l’organisation. Facteurs clés de succès : Expertise technique d’Agaetis en développement industriel et IoT . Grande flexibilité dans la collaboration avec le client. Intégration fluide des données issues de différents équipements. Approche orientée impact et résultats mesurables. Et vous ? Vous vous interrogez sur : l’optimisation de vos processus de contrôle industriel, l’intégration de nouvelles technologies de mesure, ou la digitalisation de vos applications qualité ? 👉 Contactez nos experts pour moderniser vos contrôles industriels et accroître votre performance opérationnelle.
par David Walter 26 novembre 2025
Directus est-il l’avenir du Low Code ? 1. Comprendre le contexte : le rêve et les limites du Low Code L’essor des outils Low Code et No Code Les solutions no-code visent à simplifier complètement le processus, offrant des interfaces visuelles de type drag&drop, tandis que les plateformes low-code combinent cette simplicité avec la possibilité d’intégrer du code personnalisé pour des besoins plus avancés. Ces outils ont progressivement trouvé leur place dans les entreprises, permettant de créer des POC rapidement ou de moderniser des processus internes simples. Les premiers outils donnant accès à des fonctionnalités de développement simplifiées sont apparus dans les années 90 et début 2000. Mais par leur coût, ils étaient réservés à de grandes entreprises, mais avaient des possibilités limitées et restaient peu scalables. Les outils low code/no code comme nous les connaissons aujourd’hui se sont popularisés au début des années 2010 en réponse à la demande croissante des entreprises pour la digitalisation de processus métiers. Face à la forte demande de développeurs et à la complexité croissante des projets numériques, ces plateformes ont permis à des utilisateurs non techniques de créer des applications, automatiser des workflows et gérer des données sans écrire de code complexe. Quelques chiffres pour comprendre le phénomène Pour évaluer l’impact du no-code en France, examinons quelques statistiques significatives. Entre 2020 et 2025, le no-code est passé d'une tendance émergente à une solution adoptée par une majorité d'entreprises. Une étude réalisée par Hostinger révèle que 71 % des cadres et dirigeants français ont adopté des solutions no-code en 2025 , contre seulement 25 % en 2020. Cette progression illustre une mutation profonde des pratiques numériques. - No-code France : Cette communauté, initié par Contournement en 2019, est passée de 5 000 membres en 2020 à plus de 13 000 en 2025. Elle est la plus grande communauté francophone autour du No-code et regroupe professionnels, freelances et passionnés. - Le SFPN (Société Française des Professionnels du No-code) : Créée en 2020, son but est de fédérer et représenter le No-code au niveau national. Elle organise des événements tels que le Tour de France du No-code et le No-code Summit, et a vu ses adhérents tripler pour atteindre 1 500 membres actifs en 2025. 
Show More