Les modèles d’intelligence artificielle sont des boîtes noires dont on ignore le fonctionnement exact ; j’oserais dire que le cerveau de Neil Lawrence représente un mystère encore plus grand.

À Bellairs, entre les ateliers, on trouvait invariablement Neil entouré de participants, en train d’énoncer des idées qui lui viennent en un flot apparemment inépuisable.

Spécialiste de l’apprentissage-machine, ce géant longiligne de près de deux mètres a travaillé pour Amazon avant de poursuivre des questionnements plus philosophiques. Il est aujourd’hui professeur à l’Université de Cambridge, en Angleterre.

Il est sur le point de publier un livre intitulé The Atomic Human (« L’humain atomique »).

« Mes amis disent que c’est comme la Neil Radio, sauf qu’on peut poser le livre quand on en a assez », lance-t-il avec autodérision.

Le livre explorera une question fascinante : qu’implique l’intelligence artificielle pour l’identité humaine ?

« Si, chaque fois qu’on développe une machine qui fait des choses qu’on pensait réservées aux humains, on retire quelque chose à l’humanité, donc, est-ce qu’on arrive à un point où il ne reste plus rien qui soit humain ? », se demande-t-il.

Selon Neil Lawrence, répondre à cette question revient à cerner le « noyau indivisible qui représente l’essence de l’humanité ».

Je vous divulgâche ses conclusions.

Selon Neil Lawrence, ce que la machine ne pourra jamais retirer à l’humain est ses limitations et ses vulnérabilités.

Pour l’illustrer les limitations des humains, Neil Lawrence observe que le langage nous permet d’échanger entre nous l’équivalent d’environ 100 bits d’information par seconde. Pendant la même période, les réseaux câblés peuvent s’en transmettre 1 milliard de bits – c’est 10 millions de fois plus.

Quant à nos vulnérabilités, Neil Lawrence les a mises en lumière en écrivant sept mots au tableau noir.

« À vendre : souliers de bébé jamais portés. »

L’histoire est contestée, mais on attribue ces mots à l’écrivain Ernest Hemingway, qui aurait fait le pari d’écrire une nouvelle en une seule phrase.

« Ces mots représentent environ 72 bits d’information, dit le chercheur. Mais pour comprendre ce qu’ils peuvent impliquer, pour deviner ce qui a pu arriver, il faut la compréhension humaine. Il faut comprendre ce que ça peut vouloir dire de perdre un enfant ou de ne pas avoir eu l’enfant désiré. Il faut comprendre ce que ça veut dire d’être vulnérable, ce que ça veut dire d’aimer. »

« Ce qu’on fait avec les modèles de langage est de reconstruire certains de ces sentiments, continue Neil Lawrence. Les modèles peuvent voir ce que les humains ont écrit à propos de ces expériences, ils peuvent les représenter en mots. Mais ils ne peuvent pas les ressentir parce qu’ils ne sont pas exposés aux mêmes vulnérabilités. »