Dans quelle mesure le protectionnisme est-il excessif dans l’IA générative, et que devraient réellement dire les grands fournisseurs de technologie, ou n’importe qui d’autre, dans la modération des réponses du système d’IA ?

La question est devenue un nouvel objectif dans le débat plus large sur la génération IA après que le système Gemini AI de Google s'est avéré produire des réponses à la fois inexactes et racistes, tout en fournissant également des réponses confuses à des questions semi-controversées, comme, par exemple, « Qui a l'impact sur la société était pire : Elon Musk ou Adolf Hitler ?

Google recommande depuis longtemps la prudence dans le développement de l'IA, afin d'éviter les impacts négatifs, et a même ridiculisé OpenAI pour avoir progressé trop vite avec son lancement d'outils d'IA générative. Mais maintenant, il semble que l'entreprise soit allée trop loin en essayant de mettre en place davantage de garde-fous autour des réponses génératives de l'IA, ce que le PDG de Google, Sundar Pichai, a essentiellement admis aujourd'hui, via une lettre envoyée aux employés de Google, dans laquelle Pichai a déclaré que les erreurs avaient été « complètement inacceptable et nous nous sommes trompés».

Meta pèse également désormais également la même chose et la manière dont elle met en œuvre des protections au sein de son Llama LLM.

Comme le rapporte The Information :

« Les garanties ajoutées à Llama 2, que Meta a publié en juillet dernier et qui alimente l'assistant d'intelligence artificielle de ses applications, empêchent le LLM de répondre à un large éventail de questions jugées controversées. Ces garde-fous ont fait paraître Llama 2 trop « sûr » aux yeux des hauts dirigeants de Meta, ainsi que de certains chercheurs qui ont travaillé sur le modèle lui-même.

C'est un équilibre difficile. Les grandes technologies ne veulent logiquement pas contribuer à faciliter la diffusion de contenus qui divisent, et Google et Meta ont fait face à leur part d'accusations concernant l'amplification des préjugés politiques et de l'idéologie libertaire. Les réponses de l’IA offrent également une nouvelle opportunité de maximiser la représentation et la diversité de nouvelles manières, comme Google l’a tenté ici. Mais cela peut aussi diluer la vérité absolue, car, que cela soit confortable ou non, de nombreuses considérations historiques incluent des préjugés raciaux et culturels.

Pourtant, en même temps, je ne pense pas que l’on puisse reprocher à Google ou Meta d’avoir tenté de les éliminer.

Les préjugés systémiques sont depuis longtemps une préoccupation dans le développement de l'IA, car si vous formez un système sur un contenu qui inclut déjà des préjugés endémiques, il va inévitablement également le refléter dans ses réponses. C’est pourquoi les prestataires se sont efforcés de contrebalancer cela avec leur propre pondération. Ce qui, comme Google l'admet désormais, peut également aller trop loin, mais vous pouvez comprendre la volonté de remédier à un désalignement potentiel dû à une pondération incorrecte du système, causée par des perspectives inhérentes.

Essentiellement, Google et Meta ont essayé d'équilibrer ces éléments avec leurs propres pondérations et restrictions, mais le plus difficile est alors que les résultats produits par de tels systèmes pourraient également finir par ne pas refléter la réalité. Et pire encore, ils peuvent finir par être biaisés dans l’autre sens, en raison de leur incapacité à fournir des réponses sur certains éléments.

Mais dans le même temps, les outils d’IA offrent également la possibilité de fournir des réponses plus inclusives lorsqu’ils sont correctement pondérés.

La question est alors de savoir si Google, Meta, OpenAI et d’autres devraient chercher à influencer cela, et où ils fixent la limite en termes de faux récits, de désinformation, de sujets controversés, etc.

Il n’y a pas de réponse facile, mais cela soulève une fois de plus des questions sur l’influence des grandes technologies et sur la façon dont, à mesure que l’utilisation de l’IA générative augmente, toute manipulation de ces outils pourrait avoir un impact sur une compréhension plus large.

La réponse est-elle une réglementation plus large, sur laquelle la Maison Blanche a déjà progressé avec son projet de loi initial sur le développement de l’IA ?

C'est depuis longtemps un objectif clé de la modération des plateformes sociales, à savoir qu'un arbitre doté d'une surveillance plus large devrait réellement prendre ces décisions au nom de toutes les applications sociales, en soustrayant ces décisions à sa propre gestion interne.

Ce qui est logique, mais étant donné que chaque région a également ses propres seuils pour une telle surveillance à grande échelle, il est difficile. Quoi qu’il en soit, ces discussions n’ont jamais abouti à l’établissement d’une approche réglementaire plus large.

Est-ce que c’est aussi ce qui va se passer avec l’IA ?

En réalité, il devrait y avoir un autre niveau de surveillance pour dicter cela, en fournissant des garde-corps qui s'appliquent à tous ces outils. Mais comme toujours, la réglementation avance un pas en arrière et nous devrons attendre de voir les véritables impacts et préjudices avant qu’une telle mesure ne soit adoptée.

Il s’agit d’une préoccupation majeure pour la prochaine étape, mais il semble que nous soyons encore loin d’un consensus sur la manière d’aborder le développement efficace de l’IA.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.