2. Une révolution épistémologique également ?
Cette interrogation est d’importance, et particulièrement dans un laboratoire comme le Cetcopra, car elle renvoie à des questions fondamentales pour des chercheurs. Je vais donc m’appesantir sur trois questions.
La question de la cause, d’abord. Comme source première de sens à travers la relation cause-effet, la cause – qui est sensée supporter la majeure partie de nos raisonnements, de nos analyses et de nos décisions d’action – serait fortement concurrencée par la corrélation. Ah ? Pour les non-familiers de la notion de corrélation, en quelques mots : la corrélation, c’est ce qui quantifie la relation statistique entre deux valeurs (la corrélation est dite forte si une valeur a de fortes chances de changer quand l’autre valeur est modifiée et elle est dite faible dans le cas où une valeur a de faibles chances de changer quand l’autre valeur est modifiée). Aussi, quand vous analysez un phénomène par la voie des corrélations, vous n’êtes pas renseigné(e) sur son fonctionnement interne ; en revanche, vous pouvez identifier les meilleures données susceptibles, à une imprécision près, de s’y substituer. La corrélation va donc permettre de repérer les meilleures données substitutives à un phénomène (grâce à une analyse élaborée à partir d’innombrables modèles mathématiques qu’on peut passer en revue, aujourd’hui très rapidement et pour pas cher, comme je l’ai déjà dit) et de mettre en exergue des « phénomènes aux parties liées », c’est-à-dire des phénomènes à la corrélation forte, autorisant ainsi une meilleure analyse prédictive, autrement dit la probabilité d’occurrence, du phénomène qui intéresse.
La question de la prise en charge prédéterminée du raisonnement, ensuite. Il s’agit bien d’une démarche qui suppose le compromis suivant : à condition de bien vouloir accepter de renoncer à chercher a priori quelque chose de précis en vous appuyant sur la cohérence d’un sujet, vous gagnez à pouvoir envisager sans délai des questions que vous n’aurez pas préalablement identifiées ! La corrélation ne recherche donc pas la cause d’un phénomène ; elle ne recherche pas son « pourquoi » via le détour méthodique par l’exactitude, la précision et l’ordre via la catégorisation a priori et la mesure. Non ! En desserrant ces contraintes-là, en consentant à l’idée qu’il s’agit là non d’un défaut à réparer mais bien d’un compromis à accepter, elle permet de prévoir plus efficacement les tendances auxquelles ce phénomène sera soumis. « Savoir quoi, et non pourquoi, n’est-ce pas largement suffisant ?», clament les thuriféraires de la corrélation, lesquels n’hésitent pas à proférer que la démarche par la corrélation est à même de « comprendre le monde » mieux que ne le fait la démarche par la cause et la relation cause-effet. Bref, la corrélation rapprocherait de… la réalité, selon eux, en ce que celle-ci serait d’une part enregistrée ou enregistrable statistiquement, d’autre part, « pratique, plus plastique, impliquant de nombreux facteurs en jeu ».
La question de la théorie et de la vérité, enfin. Il n’en fallait pas davantage, en effet pour annoncer « la fin de la théorie », donc de l’approche moderne de la science fondée sur la recherche de la vérité. L’un des premiers à le faire fut Chris Anderson en 2008 dans un article, fameux aujourd’hui, qui donne lieu à d’innombrables commentaires et exégèses (5) . A ce propos, je renvoie à l’analyse qu’en fait une jeune agrégée de philosophie et doctorante à Paris 1, Anne Alombert, dans un article intitulé « Eléments de débat sur le rôle des Big Data dans la recherche scientifique – Autour de « The end of theory » de Chris Anderson » où elle explique longuement que « la corrélation rendue visible par le traitement algorithmique des données, quelque efficacité prédictive ou descriptive qu’elle puisse avoir, ne remplace en rien une hypothèse théorique » ; que les données numériques ne constituent pas le réel, qu’on en passe toujours par une médiation ; enfin, que la vérité (dont elle avance les aspects qui en conditionnent les régimes) n’est pas à chercher derrière cette médiation. Elle reformule la seule question pertinente à ses yeux, qui est de savoir comment produire de la vérité dans le numérique (et non pas « la vérité du numérique »), c’est-à-dire comment les technologies numériques modifient les manières de construire des vérités.
La possibilité d’intéressantes controverses est donc ouverte. Pour terminer ce point 2, voici, pour l’exemple, quelques repères possibles pour approfondir sa propre réflexion au contact de travaux de recherches en histoire des sciences et des techniques en France. Autour de l’histoire du calcul des probabilités et de la statistique, et des travaux de leur ancien séminaire commun, Michel Armatte et Eric Brian. Autour de l’histoire des mathématiques, et notamment de la géométrie moderne à la fin du 19è siècle, moment clé, Giuseppe Longo. Autour, enfin, de Jean Lassègue, grand spécialiste d’Alan Turing et engagé dans des recherches bien intéressantes sur l’écriture de l’informatique.