La Pénurie de données à l'âge classique. L'expérience était naguère encore chiche. L'efficacité d'une expérience scientifique classique reposait tout autant sur l'importance de l'hypothèse théorique dans laquelle elle s'inscrivait que sur l'ingéniosité de l'expérimentateur à la concevoir et en collecter les résultats tant était élevé le coût de la réalisation et de la production de données à partir de son observation. L'expérience de Michelson et Morley en 1887, par exemple, est généralement considérée comme la première d'une série successivement plus complexe d'évaluations de la Théorie spéciale de la relativité. Elle mit en oeuvre des miroirs parfaitement polis, des verres parfaitement transparents, rivés sur un lourd bâti en pierre flottant dans un bain de mercure, entièrement couverts pour pallier les variations infimes de tempértaure ; ces tonnes de matériel furent, de surcroît, amenées et construites à grands frais au sous-sol de la résidence universitaire de ce qui est devenu la Case Western University pour éviter vibrations et autres effets indésirables (#). Les quelques 238 données produites par quatre jours d'expérimentation occuperaient aujourd'hui difficilement le premier quadrant d'une simple feuille de tableur ! Mais le talent des expérimentateurs et le génie des théoriciens compensaient alors amplement l'avarice de l'expérimentation. Des maigres ruisselets de données qui sourdaient ainsi laborieusement d'expériences rares et coûteuses, une analyse en profondeur reconnaissait alors des faits c'est-à-dire, dans la perspective fondamentaliste prévalente, du réel et de la connaissance consistant ici en la croyance dans les faits.
L'observateur, théoricen, expérimentateur ou partie prenante, énonce donc que l'expérience de Michelson-Morley démontre que la vitesse de la lumière est constante. Mais l'expérience, dans les données qu'elle produit, énonce-t-elle une vérité ? En fait, elle n'a aucun besoin de le faire puisqu'elle remplit efficacement sa tâche sans dire un mot.
L'expérience produit des cas, des jeux de données (datasets) dit-on maintenant, où la vitesse de la lumière est invariable. Il n'y a là rien de remarquable : n'importe quel rayon lumineux en fait autant. Mais l'art de l'expérimentateur et le soubassement théorique aboutissent ici à une mesure du temps que la lumière met à parcourir des distances égales dans des directions différentes qui souligne l'invariabilité de la vitesse de la lumière. Ainsi pour reprendre Norwood Hansen (#) : « facts are small theories and true theories are big facts » (les faits sont eux-mêmes de petites théories et les vraies théories ne sont que des faits grandioses).
Cet équilibre économique précaire entre disette de données et profondeur de leur analyse conduit à des schémas d'interprétation particuliers devenus standards. Les données sont probantes si elles soulignent, elles exhibent, elles mettent en valeur ou elles transmettent sans faire de commentaire, ce qui en pratique comporte à la fois une référence et une instanciation. Des données qui font référence à un trait et l'instancient exemplifient ce trait, pour reprendre le vocabulaire de Nelson Goodman ; le jeu de données devient alors exemplaire du trait auquel il fait référence (#). Puisque l'exemplification est donc un mode de référence, tout ce qui exemplifie est un symbole. Des échantillons, des exemples au sens ordinaire, des données exemplifient les traits qu'ils exhibent et servent donc tous de symboles. Et puisque l'exemplification requiert l'instanciation, un jeu de données, comme symbole, ne peut exemplifier que des traits qu'il instancie : un échantillon significatif est nécessairement sélectif dans ce qu'il représente. Ainsi le jeu de données comme symbole appelle une interprétation : le comprendre nécessite de savoir lesquels parmis ses aspects exemplifient et à quels traits ils réfèrent.
Les traits qu'un jeu de données exemplifie dépendent de sa fonction. Parfois il arrive qu'un jeu de données, comme symbole, accomplisse toute une variété de fonctions. L'art de l'expériementateur et l'intention de celui qui produit le jeu de données peuvent contribuer à restreindre cette variété mais ne suffisent pas à déterminer le trait exemplifié tout simplement parce qu'ils peuvent se tromper. Ainsi Michelson et Morley se proposaient par leur expérience d'exemplifier la présence et la grandeur du vent d'éther. Or l'expérience à non seulement prouvé l'inexistence de l'éther luminifère mais également l'incapacité des catégories classiques à rendre compte des phénomènes électromagnétiques, point que Michelson et Morley trouvaient eux-mêmes inconcevable ! Les exemplaires opèrent par rapport à une constellation d'hypothèses ; quand on change ces hypothèses d'arrière-plan un jeu de données peut se mettre à exemplifier de nouveaux traits. Le jeu de données exemplaire contribue à construire la réalité en « matérialisant » et en organisant la constellation d'hypothèses sous-jacente.
Alea Big Data Est. L'intérêt actuel croissant pour le Big Data (#) et la perpective scientifique dans laquelle il peut s'inscrire accentue notablement l'importance de ces considérations sur représentation et la construction de la réalité.
Le premier constat est évidemment celui du bouleversement de l'équation économique de la production de données à des fins d'expériementation par et pour le Web. Les datacenters pharaoniques des titans du Web comme Google, Facebook, Twitter, Microsoft, etc. collectent des masses littéralement inimaginables de données. D'après IDC (#), le volume de données numériques créées et copiées sur le Web en 2011 a atteint 1,8 zettaoctets — et les métaphores incommensurables qui illustrent ces chiffres nous sont devenues familières.
Du coup la multiplicité des fonctions accomplies par un jeu de données, dans notre analyse précédente, explose mécaniquement avec le nombre mais également avec la croissance polynomiale des mises en relation possibles avec d'autres jeux de données tout aussi innombrables. À un coût rendu marginalement nul, la supernova des Big Data illumine les sciences sociales, économiques et comportementales (cognitives) avec un impact prospectif majeur sur la finance, la communication et l'information, et, au final comme l'explore habilement Nicholas Carr (#) sur notre esprit et notre cerveau.
Le second constat est, qu'en contrepoint, la déflagration des capacités de production, de stockage et de calcul des données a entraîné et accompagné des progrès mathématiques théoriques majeurs signalant l'irruption massive de l'aléa dans les avancées récentes de la combinatoire et de l'algorithmique. Les statistiques et leurs disciplines souvent mal aimées, parfois reléguées à des fonctionnaires crayeux au teint couleur muraille oeuvrant mystérieusement dans les poussiéreux corridors de bunkers staliniens surplombant des périphériques encombrés, acquièrent soudain un lustre nouveau en changeant de statut. Elles sont en train de devenir des datistiques pourrait-on dire, tant elles saluent le retour à la scène de l'Aléa.
L'utilisation de la simulation pour les calculs réputés intraitables en très haute dimension, par exemple, révolutionne les mathématiques appliquées (#). En effet, à quoi sert donc de produire plus de données ? Traditionnellement à réduire les marges d'incertitude dans les calculs. Mais si l'on produit vraiment massivement plus de données, on peut envisager d'accélerer subtantiellement les temps d'exécution de simulations numériques dans les tests et le calibrage des modèles statistiques ainsi que les temps d'exécution de ces modèles à des fins prédictives. On peut aussi compenser naturellement le manque d'information par des données produites très rapidement et en quantité, c'est-à-dire par des échantillons probants au sens précédent (#).
Les progrès de la formalisation mathématique de la méthode de Monte Carlo et, en particulier, de la nature de l'échantillonage de données permettant de substituer à une information manquante un jeu de données approprié pour le calcul d'estimations numériques de distributions de probabibilité (#) permet de généraliser l'usage d'algorithmes probabilistes à toute une classe de problèmes considérés comme hors de portée des algorithmes déterministes classiques. Ce qu'on appelle Markov Chain Monte Carlo, un ensemble de techniques mis au point récemment et qui touche à la représentation des groupes (#), à la géométrie algébrique (#), et au renouveau de la théorie des équations différentielles (#) notamment pour l'analyse du temps de convergence des processus markoviens (#), permet d'attaquer des problèmes combinatoires complexes, en haute dimension, récurrents dans les moteurs de recherche, le data mining, l'apprentissage automatique, l'indexation des contenus, la classification des documents, la détection de patterns, la gestion de flux de données en temps réel, etc.
Un exemple concret est constitué par le développement des bases de données dites de Monte Carlo (Monte Carlo Databases), spécialisées dans la gestion de données incertaines. Ici, au lieu de représenter l'incertitude par des probabilités numériques individuelles associées à chaque rangée d'une table relationnelle, le SGBD Monte Carlo (#) produit à la volée lors de l'exécution d'une requête SQL un jeu de valeurs pour les données incertaines suivant la distribution de probabilité souhaitée : un échantillon probant à la demande.
Le succès des algorithmes probabilistes dans la résolution de problèmes combinatoires ou calculatoires bouleverse l'analyse de la complexité algorithmique. Ces nouvelles méthodes laissent à penser que la barrière entre problèmes P et NP — solubles en temps polynomial ou non — n'est pas aussi imperméable et franche qu'on l'imagine. ( P = NP est encore un des grands problèmes mathématiques ouverts, non résolu #.) Les datisticiens théoriques savent désormais que s'il faut un temps exponentiellement long pour trouver une solution exacte aux calculs sur les Big Data, ils arrivent à des approximations probantes en temps polynomial pourvu qu'ils disposent du levier d'une chaîne de Markov, à convergence rapide, pour produire à la demande des instances aléatoires du problème.
Vérité et données. Pour l'exprimer de façon radicale, ces nouveaux moyens adaptés aux Big Data pourraient remettre en cause certains fondements de notre compréhension de la réalité. Au risque d'errer du côté du constructiviste radical (#) d'Ernst von Glasersfeld — disparu il y a un peu plus d'un an — ou de trahir un léger accent Orwellien, il faut reconnaître avec Goodman « qu'avoir à usiner les instruments spécifiques de production des faits rend sans objet toute vélléité d'identification du physique au réel et du perçu à la simple apparence ». La réalité issue du traitement par les moyens mathématiques modernes des Big Data est-elle vraie ?
Lorsque Google restitue une image de la propagation de la grippe dans le monde entier (#) à partir des requêtes des internautes, qu'elle collecte et qu'elle analyse en linguiste, le taux d'incidence calculé est il le vrai taux d'incidence de la grippe dans le monde ? Le statisticien réservé note tout au plus une corrélation entre l'indicateur de Google et le taux d'incidence mesuré auprès des médecins par le Center for Disease Control and Prevention, et oppose que rien n'assure que l'outil soit capable de fournir des tendances aussi pertinentes à l'avenir. (Les résultats ne reposent-ils pas essentiellement sur l'habitude largement répandue des internautes de se servir de Google horresco referens pour leurs recherches ?) Le datisticien goguenard lui demandera alors en retour combien de données il doit rajouter pour que le taux d'incidence devienne le taux réel pour tout usage pratique (politiques de vaccinations préventives, élaboration de stratégies de santé publique, information et sensibilisation des individus...) ?
C'est la confrontation assurée des deux cultures de la modélisation statistique telle que la commentait Leo Breiman dans un papier célèbre (#). Imaginons les données produites par une boîte noire : à l'entrée des variables indépendantes, à la sortie des résultats que l'on souhaite élever au rang de faits à des fins de prédiction — prédire quels seront les résultats produits pour des variables à venir — et à des fins d'information — comprendre comment les résultats sont associés naturellement aux variables d'entrée. Dans l'approche de la modélisation, typique d'après Breiman de « 98 % » des statisticiens, on postule qu'un processus stochastique est à l'oeuvre dans la boîte noire, les résultats étant issus de tirages aléatoires indépendants d'après un modèle commun de données. Il s'agit alors d'estimer les paramètres du modèle sur la base des observations réalisées puis d'utiliser ce modèle calibré à des fins de prédiction. Dans l'approche algorithmique plane l'ombre portée du Test de Turing : l'intérieur de la boîte noire est considéré comme inconnu et inscrutable, voire même comme sans pertinence aucune, et il s'agit plutôt de trouver un algorithme, une fonction des variables, qui produit les résultats ou une approximation des résultats. Dans la première approche la validation du modèle est une affaire manichéenne, positivement ou négativement tranchée par les tests classiques de goodness-of-fit comme le Chi-2. Dans la seconde, la validation est matière à riposte graduée, fondée sur la précision relative de l'approximation.
L'avalanche des Big Data et le déploiement massif des moyens de calcul associés donne une toute autre force à la validation dans l'approche algorithmique. Comme on l'a vu, non seulement le nombre massif et ses nouveaux instruments mathématiques conduisent la précision des approximation à des degrés jamais atteints — et, défend le pragmatique, bien plus que suffisants pour toute connaissance ou action pratique sur laquelle la conforter — mais circonviennent des problèmes que l'approche de modélisation avait renoncé même à attaquer. De plus les avancées théoriques des années 1980 et 1990, calcul sur les réseaux Bayesiens (#), simulation Monte Carlo des chaînes de Markov et Logique de Markov (#), théorie de Vapnik-Chervonenkis et les support vector machines (#), les outils « ensemblistes » pour l'apprentissage automatique (#) — boosting, bagging, random forests, etc. — acquièrent une plus vive acuité encore avec l'accès à bas coût aux plateformes de calcul du cloud computing, comme MapReduce, Hadoop, Dryad, Pregel, GoldenOrb et bien d'autres.
Dans le sillage du déferlement des Big Data la vérité pourrait alors se trouver redéfinie par le poids croissant de l'approche algorithmique (#). (Que l'on songe à Twitter Trends, par exemple.) Il n'est pas question ici du problème philosophique de la vérité qui tourne autour de la réconciliation de versions alternatives et concurrentes des faits par l'attribution de leur variété à des désaccords sur les conventions d'interprétation de ces mêmes faits. Il est plutôt question de la dérive graduelle de la définition opérationnelle de la vérité qui nous contentait jusqu'alors.
La vérité est ici et maintenant dans le test — une fois abandonnée la grande ambition du programme de Hilbert de fonder la vérité sur la cohérence du système mathématique issu du formalisme logique à laquelle, nonobstant les Bourbachistes (#), Gödel a imposé une bifurcation majeure. La vérité (métaphoriquement) dite par les données devient avec les Big Data affaire de crédibilité (probabilistes) et d'utilité (pragmatiques) — Huxley et Orwell.
Ce faisant, les Big Data promeuvent une réalité qui a de moins en moins à voir avec une croyance vraie justifiée. D'abord la justification au sens d'un argument qui part de prémisses vraies n'est plus de mise. Ce n'est pas ce qui soutient le jeu de (Big) données mais ce qu'il met en avant qui plaide pour un exemplaire. La vérité n'est pas non plus cruciale. Les expériences, les jeux de données, les échantillons informent au moyen de l'exemplification. Les données, symboles non verbaux, ne sont ni vraies ni fausses : le succès — opérationnel — qu'elles rencontrent ne repose donc pas sur la vérité. Leur contribution cognitive peut simplement consister à augmenter le répertoire conceptuel dont on dispose, à affiner son pouvoir de discriminer, à aiguiser sa capacité à reconnaître, synthétiser, organiser, etc.
Ainsi les Big Data très loin d'être épistémiquement inertes sont, au contraire, hautement fissiles et il est loisible de s'inquiéter de leur niveau actuel au regard de la masse critique.