Les calculs sur ce projet devraient humilier massivement tous les laboratoires d'IA sur la planète. 1 millimètre cube. Un millionième d'un cerveau humain. Harvard et Google ont passé 10 ans à le cartographier. L'imagerie seule a pris 326 jours. Ils ont découpé le tissu en 5 000 tranches de 30 nanomètres d'épaisseur, les ont passées dans un microscope électronique de 6 millions de dollars, puis ont eu besoin des modèles ML de Google pour assembler la reconstruction 3D car aucune équipe humaine ne pouvait traiter la sortie. Le résultat : 57 000 cellules, 150 millions de synapses, 230 millimètres de vaisseaux sanguins, compressés en 1,4 pétaoctets de données brutes. Pour donner un contexte, 1,4 pétaoctets équivaut à environ 1,4 million de gigaoctets. À partir d'une particule plus petite qu'un grain de riz. Maintenant, échelle cela. Le cerveau humain entier est un million de fois plus grand. Cartographier l'ensemble à cette résolution produirait environ 1,4 zettaoctets de données. Cela équivaut à peu près à toutes les données générées sur Terre en une seule année. Le stockage seul coûterait environ 50 milliards de dollars et nécessiterait un centre de données de 140 acres, ce qui en ferait le plus grand sur la planète. Et ils ont trouvé des choses que les manuels ne contiennent pas. Un neurone avait plus de 5 000 points de connexion. Certains axones s'étaient enroulés en spirales serrées pour des raisons complètement inconnues. Des paires de groupes de cellules se développaient en images miroir l'une de l'autre. Jeff Lichtman, le responsable de Harvard, a déclaré qu'il y a "un gouffre entre ce que nous savons déjà et ce que nous devons savoir." C'est pourquoi la prochaine étape n'est pas un cerveau humain. C'est un hippocampe de souris, 10 millimètres cubes, au cours des cinq prochaines années. Parce qu'un cerveau de souris est 1 000 fois plus grand que ce qu'ils viennent de cartographier, et le connectome complet de la souris est la preuve de concept avant que quiconque n'essaie celui de l'humain. Nous construisons des systèmes d'IA qui imitent vaguement les réseaux neuronaux tout en étant encore incapables de lire complètement le schéma de câblage d'un seul millimètre cube de la chose que nous essayons d'imiter. L'original est de 1,4 pétaoctets par millionième de son volume. Chaque modèle d'IA sur Terre tient dans une fraction de cela. Le cerveau fonctionne avec 20 watts et tient dans votre crâne. Le centre de données nécessaire pour simplement décrire un millionième de celui-ci s'étendrait sur 140 acres.