La plupart d’entre nous sont incapables de construire une voiture.

Mais rien ne nous empêche d’en acheter une, de la démonter et d’en comprendre le fonctionnement.

C’est très différent avec les modèles basés sur l’intelligence artificielle comme ChatGPT.

« C’est peut-être la première fois dans l’histoire que nous voyons une technologie aussi transformatrice se développer exclusivement au sein de quelques entreprises privées », observe Gillian Hadfield, professeure de droit et de gestion stratégique à l’Université de Toronto.

Même les gouvernements et les plus grands laboratoires universitaires de la planète sont aujourd’hui incapables de reproduire les modèles développés par les OpenAI, Google DeepMind et Meta de ce monde. Il leur faudrait des fortunes pour acquérir les capacités de calcul qui font fonctionner ces robots.

Je pense que ces technologies vont transformer à peu près tout ce que nous faisons. Et les seuls qui peuvent les tester et les étudier sont les entreprises de technologie privées.

Gillian Hadfield, professeure de droit et de gestion stratégique à l’Université de Toronto

En plus de sa carrière universitaire, la professeure Hadfield a travaillé pour OpenAI pendant cinq ans à titre de conseillère en politiques.

Sa solution ?

« Il faut qu’une partie de ce qui se passe à l’intérieur de ces entreprises se fasse à l’extérieur, au sein d’un secteur indépendant », résume-t-elle.

Un exemple est ce qu’on appelle l’« approche de l’équipe rouge », ou red teaming en anglais. L’idée : se mettre dans la peau d’un adversaire et tester un système sous toutes ses coutures pour en révéler les failles.

Les entreprises qui entraînent des robots conversationnels le font à l’interne. Gillian Hadfield pense qu’on devrait les obliger à confier ces tâches à des firmes externes, puis s’assurer que ces tests respectent des critères édictés par les gouvernements.

Vous dites à une entreprise comme OpenAI : “Vous devez avoir un contrat avec une entreprise indépendante qui détient une licence du gouvernement et qui vérifie vos processus”.

Gillian Hadfield

On créerait ainsi toute une industrie qui pourrait attirer les meilleurs cerveaux et utiliser des modèles d’intelligence artificielle pour en tester d’autres. En janvier dernier, l’ancien président de Google, Eric Schmidt, a plaidé pour une telle « économie du test » dans le Wall Street Journal.

Gillian Hadfield souligne que ce serait loin d’être la première fois que des entreprises contribuent à en réglementer d’autres. Des géants comme Deloitte ou PwC se mettent le nez dans les livres comptables d’autres entreprises parce que des lois obligent la vérification des états financiers. Et cela se fait sans compromettre de secrets commerciaux.

La chercheuse estime aussi qu’on devrait exiger de toute entreprise qui développe des modèles de langage d’une certaine capacité qu’elle s’enregistre auprès du gouvernement.

« Ça vous donne un levier que vous pouvez activer en cas de problème », dit-elle.

Ceux qui cherchent des propositions concrètes pour réduire les risques de l’IA sauront qui appeler.

Rattraper le fossé avec le privé

Le 7 avril, quelques jours après la conclusion du séminaire de Bellairs, le gouvernement Trudeau a annoncé des investissements de 2,4 milliards de dollars en intelligence artificielle, dont 2 milliards pour développer des capacités de calcul qui seront accessibles aux chercheurs canadiens. Cela pourrait-il donner des outils aux gouvernements et aux universités pour mieux comprendre et tester les modèles d’intelligence artificielle développés par les entreprises privées ? J’ai recontacté Gillian Hadfield pour avoir son avis. « C’est certainement un pas dans la bonne direction, m’écrit-elle. Il reste à voir si cette capacité de calcul sera utilisée pour ce genre de surveillance publique, mais il est important pour les gouvernements d’au moins bâtir cette capacité. »