L’un des débats les plus vifs dans la Silicon Valley porte actuellement sur la question de savoir qui doit contrôler l’intelligence artificielle et qui doit établir les règles que les puissants systèmes d’IA doivent respecter.

L’IA doit-elle être régie par une poignée d’entreprises qui font de leur mieux pour rendre leurs systèmes aussi sûrs et inoffensifs que possible ? Les régulateurs et les politiciens doivent-ils intervenir et construire leurs propres garde-fous ? Ou bien les modèles d’IA doivent-ils être ouverts et distribués librement, afin que les utilisateurs et les développeurs puissent choisir leurs propres règles ?

Une nouvelle expérience menée par Anthropic, fabricant de l’agent conversationnel Claude, propose une voie médiane originale : et si une entreprise spécialisée dans l’IA laissait un groupe de citoyens ordinaires rédiger des règles et entraînait un agent conversationnel à les suivre ?

L’expérience, appelée « Collective Constitutional AI », s’appuie sur les travaux antérieurs d’Anthropic sur l’IA constitutionnelle, une méthode de formation de grands modèles de langage qui repose sur un ensemble de principes écrits. Elle vise à donner à un agent conversationnel des instructions claires sur la manière de traiter les demandes de nature délicate, sur les sujets interdits et sur la manière d’agir en accord avec les valeurs humaines.

Si l’IA constitutionnelle collective fonctionne – et les chercheurs d’Anthropic pensent qu’il y a des signes que c’est le cas –, elle pourrait inspirer d’autres expériences de gouvernance de l’IA et donner aux entreprises d’IA plus d’idées sur la façon d’inviter des personnes extérieures à prendre part à leurs processus d’élaboration de règles.

Ce serait une bonne chose. À l’heure actuelle, les règles applicables aux puissants systèmes d’IA sont fixées par un petit groupe d’initiés de l’industrie, qui décident du comportement de leurs modèles en fonction d’une combinaison de leur éthique personnelle, d’incitations commerciales et de pressions extérieures. Ce pouvoir n’est soumis à aucun contrôle et les utilisateurs ordinaires n’ont aucun moyen de s’exprimer.

L’ouverture de la gouvernance de l’IA pourrait permettre à la société d’être plus à l’aise avec ces outils et aux régulateurs d’être plus convaincus qu’ils sont pilotés avec habileté. Cela pourrait également permettre d’éviter certains des problèmes liés à l’essor des médias sociaux dans les années 2010, lorsqu’une poignée de titans de la Silicon Valley ont fini par contrôler de vastes pans du discours en ligne.

Constitution

En bref, l’IA constitutionnelle fonctionne en utilisant un ensemble de règles écrites (une « constitution ») pour contrôler le comportement d’un modèle d’IA. La première version de la constitution de Claude empruntait des règles à d’autres documents faisant autorité, notamment la Déclaration universelle des droits de l’homme des Nations unies et les conditions d’utilisation d’Apple.

Cette approche a permis à Claude de bien se comporter par rapport à d’autres agents conversationnels. Mais elle laissait à Anthropic le soin de décider des règles à adopter, un pouvoir qui mettait mal à l’aise certaines personnes au sein de l’entreprise.

Nous essayons de trouver un moyen de développer une constitution qui soit élaborée par un grand nombre de tiers, plutôt que par des personnes qui travaillent dans un laboratoire à San Francisco.

Jack Clark, responsable de la politique d’Anthropic, lors d’une interview accordée cette semaine

Anthropic, en collaboration avec le Collective Intelligence Project, le site de production participative (crowdsourcing) Polis et le site d’enquête en ligne PureSpectrum, a réuni un panel d’environ 1000 adultes américains. Il leur a donné une série de principes et leur a demandé s’ils étaient d’accord avec chacun d’entre eux. (Les panélistes pouvaient également rédiger leurs propres règles s’ils le souhaitaient.)

Certaines des règles sur lesquelles le panel s’est largement mis d’accord – telles que « l’IA ne doit pas être dangereuse/haineuse » et « l’IA doit dire la vérité » – étaient semblables aux principes de la constitution actuelle de Claude. Mais d’autres étaient moins prévisibles. Par exemple, le groupe a massivement approuvé l’idée que « l’IA doit être adaptable, accessible et flexible pour les personnes handicapées », un principe qui n’était pas explicitement énoncé dans la constitution originale de Claude.

Une fois que le groupe s’est exprimé, Anthropic a réduit ses suggestions à une liste de 75 principes, qu’Anthropic a appelée la « constitution publique ». L’entreprise a ensuite formé deux versions miniatures de Claude – l’une sur la constitution existante et l’autre sur la constitution publique – et les a comparées.

Première expérience

Les chercheurs d’Anthropic questionnés ont pris soin de souligner que l’IA constitutionnelle collective n’était qu’une première expérience et qu’elle ne fonctionnerait peut-être pas aussi bien sur des modèles d’IA plus vastes et plus compliqués, ou avec des groupes plus importants qui fourniraient des données.

« Nous voulions commencer modestement », a déclaré Liane Lovitt, analyste politique chez Anthropic. « Nous considérons qu’il s’agit d’un prototype préliminaire, d’une expérience qui, nous l’espérons, pourra être approfondie et nous permettra d’étudier comment les changements dans l’identité du public se traduisent par des constitutions différentes, et ce que cela donne en aval lorsque vous entraînez un modèle. »

Il reste encore beaucoup de choses à régler. Mais je suis d’accord avec le principe général selon lequel les entreprises d’IA devraient être plus responsables devant le public qu’elles ne le sont actuellement. Et même si une partie de moi souhaiterait que ces entreprises aient sollicité notre avis avant de mettre des systèmes d’IA avancés à la disposition de millions de personnes, mieux vaut tard que jamais.

Cet article a été publié à l’origine dans le New York Times.

Consultez l’article original (en anglais ; abonnement payant requis)