Alors que les modèles d’IA progressent rapidement et que de plus en plus de développeurs cherchent à se lancer dans le domaine de l’IA, les risques d’évolution de l’IA augmentent également, en ce qui concerne l’utilisation abusive, la désinformation et pire encore – les systèmes d’IA qui pourraient s’étendre au-delà de la compréhension humaine et aller plus loin que n’importe qui aurait pu prévoir.
L’ampleur des préoccupations à cet égard peut changer considérablement, et aujourd’hui, le président des affaires mondiales de Meta, Nick Clegg, a partagé un article d’opinion, via le Financial Times, qui appelle à une plus grande collaboration et transparence de l’industrie dans le développement de l’IA, afin de mieux gérer ces problèmes potentiels.
Selon Clegg :
« Les avertissements les plus dystopiques concernant l’IA concernent en réalité un saut technologique – ou plusieurs sauts. Il y a un monde de différence entre les applications de style chatbot des grands modèles de langage d’aujourd’hui et les modèles de frontière surdimensionnés théoriquement capables de superintelligence de style science-fiction. Mais nous sommes toujours dans les contreforts à débattre des dangers que nous pourrions trouver au sommet de la montagne. Si et quand ces progrès deviennent plus plausibles, ils peuvent nécessiter une réponse différente. Mais il reste du temps pour que la technologie et les garde-corps se développent.
Essentiellement, l’argument de Clegg est que nous devons établir des règles plus larges dès maintenant, dans les premiers stades du développement de l’IA, afin d’atténuer les dommages potentiels des changements ultérieurs.
Pour ce faire, Clegg a proposé un nouvel ensemble de principes convenus pour le développement de l’IA, qui se concentrent sur une plus grande transparence et collaboration entre tous les projets d’IA.
L’accent est mis sur la transparence et sur la manière dont les projets d’IA fonctionnent.
« Chez Meta, nous avons récemment publié 22 « cartes système » pour Facebook et Instagram, qui donnent aux gens un aperçu de l’IA derrière la façon dont le contenu est classé et recommandé d’une manière qui ne nécessite pas de connaissances techniques approfondies.
Clegg propose que tous les projets d’IA partagent une vision similaire – ce qui va à l’encontre des normes de secret de l’industrie dans un tel développement.
Meta appelle également les développeurs à rejoindre le projet « Partenariat sur l’IA », dont Meta est un membre fondateur, avec Amazon, Google, Microsoft et IBM.
« Nous participons à son cadre d’action collective sur les médias synthétiques, une étape importante pour garantir la mise en place de garde-fous autour du contenu généré par l’IA. »
L’idée est que, grâce à la collaboration et aux connaissances partagées, ces leaders du développement de l’IA peuvent établir de meilleures règles et approches pour l’avancement de l’IA, ce qui aidera à atténuer les dommages potentiels avant qu’ils n’atteignent le public.
Clegg propose également des tests de résistance supplémentaires pour tous les systèmes d’IA, afin de mieux détecter les problèmes potentiels, et l’open source de tous les travaux de développement de l’IA, afin que d’autres puissent aider à signaler d’éventuelles failles.
« Une hypothèse erronée est que la publication du code source ou des poids de modèle rend les systèmes plus vulnérables. Au contraire, les développeurs et les chercheurs externes peuvent identifier les problèmes qui obligeraient les équipes à s’enfermer beaucoup plus longtemps dans les silos de l’entreprise. Les chercheurs testant le grand modèle de langage de Meta, BlenderBot 2, ont découvert qu’il pouvait être amené à se souvenir de la désinformation. En conséquence, BlenderBot 3 y était plus résistant.
Il s’agit d’un domaine d’intérêt important alors que nous avançons dans les prochaines étapes des outils d’IA, mais je doute également qu’un quelconque type de partenariat à l’échelle de l’industrie puisse être établi pour permettre une transparence totale sur les projets d’IA.
Des projets seront en cours dans de nombreux pays, et beaucoup d’entre eux seront moins ouverts à la collaboration ou au partage d’informations, tandis que les développeurs d’IA rivaux voudront garder leurs secrets à portée de main, afin d’avoir un avantage sur la concurrence. À cet égard, il est logique que Meta veuille établir un plan de compréhension plus large, afin de suivre les projets connexes, mais il n’est peut-être pas aussi utile pour les petits projets de partager la même chose.
Surtout compte tenu de l’histoire de Meta en matière de développement d’imitateurs.
Elon Musk, qui est récemment devenu l’ennemi numéro un de Zuckerberg, développe également ses propres modèles d’IA, qui, selon lui, seront exempts de préjugés politiques, et je doute qu’il soit intéressé à aligner ce développement sur ces principes.
Mais le point de départ est important – il y a de grands risques dans le développement de l’IA, et ils peuvent être réduits grâce à une collaboration plus large, avec plus d’experts capables de voir les défauts et les problèmes potentiels avant qu’ils ne le deviennent.
Logiquement, cela a du sens. Mais en termes pratiques, ce sera difficile à vendre sur plusieurs fronts.
Vous pouvez lire l’éditorial de Nick Clegg sur la réglementation de l’IA ici.