Alors que nous entrons dans la prochaine étape du développement de l'IA, de plus en plus de questions sont soulevées quant aux implications des systèmes d'IA en matière de sécurité, tandis que les entreprises elles-mêmes se démènent désormais pour conclure des accords exclusifs sur les données, afin de garantir que leurs modèles sont les mieux équipés pour répondre à une utilisation croissante. cas.

Sur le premier front, diverses organisations et gouvernements s’efforcent d’établir des engagements en matière de sécurité de l’IA, auxquels les entreprises peuvent souscrire, à la fois à des fins de relations publiques et de développement collaboratif.

Et un nombre croissant d’accords sont en cours :

  • Le Forum des modèles frontaliers (FMF) est un collectif à but non lucratif sur la sécurité de l'IA qui travaille à établir des normes et des réglementations industrielles autour du développement de l'IA.. Meta, Amazon, Google, Microsoft et OpenAI ont adhéré à cette initiative.
  • Le programme « Safety by Design », initié par organisation de lutte contre la traite des êtres humains Épinevise pour prévenir l’utilisation abusive des outils d’IA générative pour perpétrer l’exploitation des enfants. Meta, Google, Amazon, Microsoft et OpenAI ont tous adhéré à l'initiative.
  • Le gouvernement américain a établi son propre AI Safety Institute Consortium (AISIC), auquel plus de 200 entreprises et organisations ont adhéré.
  • Les responsables de l'UE ont également a adopté le point de repère Loi sur l'intelligence artificiellequi verra les règles de développement de l’IA mises en œuvre dans cette région.

Dans le même temps, Meta a également mis en place sa propre IA. conseil consultatif sur les produitsqui comprend un éventail d'experts externes qui conseilleront Meta sur l'évolution des opportunités en matière d'IA.

Alors que de nombreux acteurs importants et dotés de ressources suffisantes cherchent à dominer la prochaine étape du développement de l'IA, il est essentiel que les implications en matière de sécurité restent à l'esprit, et ces accords et accords fourniront des protections supplémentaires, basées sur les assurances des participants et sur des discussions collaboratives sur prochaines étapes.

La grande crainte, bien sûr, est qu’à terme, l’IA devienne plus intelligente que les humains et, au pire, asservisse la race humaine, les robots nous rendant obsolètes.

Mais nous n’en sommes pas encore proches.

Bien que les derniers outils d'IA générative soient impressionnants par ce qu'ils peuvent produire, ils ne « pensent » pas réellement par eux-mêmes et ne font que comparer les données en fonction des points communs de leurs modèles. Ce sont essentiellement des machines mathématiques super intelligentes, mais il n’y a aucune conscience là-dedans, ces systèmes ne sont en aucun cas sensibles.

Comme l'a récemment expliqué Yann LeCun, scientifique en chef de l'IA chez Meta, l'une des voix les plus respectées dans le domaine du développement de l'IA :

« (Les LLM ont) une compréhension très limitée de la logique et ne comprennent pas le monde physique, n'ont pas de mémoire persistante, ne peuvent pas raisonner selon une définition raisonnable du terme et ne peuvent pas planifier de manière hiérarchique.

En d’autres termes, ils ne peuvent pas reproduire un cerveau humain, ni même animal, malgré le fait que le contenu qu’ils génèrent ressemble de plus en plus à un humain. Mais c'est du mimétisme, c'est une réplication intelligente, le système ne comprend pas réellement ce qu'il produit, il fonctionne simplement selon les paramètres de son système.

Nous pourrions encore passer à l'étape suivante, avec plusieurs groupes (dont Meta) travaillant sur Intelligence générale artificielle (AGI), qui simule des processus de pensée semblables à ceux des humains. Mais nous n’en sommes pas encore proches.

Ainsi, pendant que les condamnés posent des questions à ChatGPT telles que « êtes-vous en vie ? » et paniquent ensuite à cause de ses réponses, nous n'en sommes pas là, et ce ne sera probablement pas le cas avant un certain temps encore.

Selon LeCun encore (extrait d'une interview en février de cette année) :

« ÔPuisque nous disposons de techniques pour apprendre des « modèles du monde » en regardant simplement le monde passer, et en combinant cela avec des techniques de planification, et peut-être en combinant cela avec des systèmes de mémoire à court terme, alors nous pourrions avoir une voie vers, non pas l'intelligence générale, mais dites l'intelligence au niveau du chat. Avant d'arriver au niveau humain, nous allons devoir passer par des formes d'intelligence plus simples. Et nous en sommes encore très loin.»

Pourtant, même ainsi, étant donné que les systèmes d'IA ne comprennent pas leurs propres résultats et qu'ils sont de plus en plus placés dans des surfaces d'information, comme la recherche Google et les sujets d'actualité X, la sécurité de l'IA est importante, car à l'heure actuelle, ces systèmes peuvent produire , et produisent des rapports totalement faux.

C'est pourquoi il est important que tous les développeurs d'IA acceptent ce type d'accords, Pourtant, toutes les plateformes cherchant à développer des modèles d’IA ne sont pas encore répertoriées dans ces programmes.

X, qui cherche à faire de l'IA un objectif clé, est notamment absent de plusieurs de ces initiatives, car il cherche à faire cavalier seul sur ses projets d'IA, tandis que Snapchat, lui aussi, se concentre davantage sur l'IA, mais il n'est pas encore répertorié. en tant que signataire de ces accords.

C'est plus urgent dans le cas de X, étant donné qu'il utilise déjà, comme indiqué, ses outils Grok AI pour générer des titres d'actualité dans l'application. Cela a déjà vu le système amplifier une série de faux rapports et de désinformations en raison d'une mauvaise interprétation des publications et des tendances X.

Les modèles d'IA ne sont pas doués avec le sarcasme, et étant donné que Grok est formé sur des postes X, en temps réel, c'est un défi difficile, que X n'a ​​clairement pas encore réussi. Mais le fait qu'il utilise des publications X est son principal facteur de différenciation, et en tant que tel, il semble probable que Grok continuera à produire des explications trompeuses et incorrectes, au fur et à mesure de ses publications X, qui ne sont pas toujours claires ou correctes.

Ce qui nous amène à la deuxième considération. Compte tenu du besoin de plus en plus de données, afin d’alimenter leurs projets d’IA en évolution, les plateformes cherchent désormais comment sécuriser des accords de données pour continuer à accéder aux informations créées par l’homme.

Parce qu'en théorie, ils pourraient utiliser des modèles d'IA pour créer plus de contenu, puis les utiliser pour alimenter leurs propres LLM. Mais la formation des robots est une voie vers davantage d’erreurs et, finalement, vers un Internet dilué, inondé de déchets dérivés, répétitifs et non engageants créés par les robots.

Ce qui fait des données créées par l’homme un produit très prisé, que les plateformes sociales et les éditeurs cherchent désormais à sécuriser.

Reddit, par exemple, a restreint l'accès à son API, tout comme X. Reddit a depuis conclu des accords avec Google et OpenAI pour utiliser ses informations, tandis que X semble choisir de conserver ses données utilisateur en interne, pour alimenter ses propres modèles d'IA. .

Meta, quant à lui, qui se vante de ses réserves de données inégalées sur les informations sur les utilisateurs, cherche également à conclure des accords avec de grandes entités médiatiques, tandis qu'OpenAI a récemment conclu un accord avec News Corp, le premier des nombreux accords d'éditeurs attendus dans la course à l'IA.

Essentiellement, la vague actuelle d'outils d'IA générative est aussi bonne que le modèle linguistique derrière chacun, et il sera intéressant de voir comment ces accords évolueront, à mesure que chaque entreprise essaie d'aller de l'avant et de sécuriser ses futurs magasins de données.

Il est également intéressant de voir comment le processus se développe plus largement, avec les grands acteurs, qui peuvent se permettre de conclure des accords avec les fournisseurs, se séparant du peloton, ce qui, à terme, forcera les petits projets à sortir de la course. Et avec de plus en plus de réglementations adoptées sur la sécurité de l'IA, cela pourrait également rendre de plus en plus difficile pour les fournisseurs les moins financés de suivre le rythme, ce qui signifie que Meta, Google et Microsoft ouvriront la voie, alors que nous envisageons la prochaine étape de l'IA. Développement de l'IA.

Peut-on leur faire confiance avec ces systèmes ? Pouvons-nous leur confier nos données ?

Les implications sont nombreuses, et il convient de noter les différents accords et changements à mesure que nous progressons vers la suite.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.