C'est à la fois troublant et informatif, en ce qui concerne l'application plus large des robots d'IA sur les applications sociales.

Comme rapporté par 404 Media, une équipe de chercheurs de l'Université de Zurich a récemment effectué un test en direct de profils de bot IA sur Reddit, pour voir si ces robots pouvaient influencer les opinions des gens sur certains sujets de division.

Comme indiqué par 404 médias:

« Les bots ont fait plus d'un millier de commentaires au cours de plusieurs mois et ont parfois fait semblant d'être une «victime de viol», un «homme noir» qui était opposé au mouvement Black Lives Matter, quelqu'un qui «  travaille (s) dans un abri de violence domestique '', et un bot qui a suggéré que des types spécifiques de criminels ne devraient pas être réhabilités. Certains des bots en question ont «personnalisé» leurs commentaires en recherchant la personne qui avait commencé la discussion et leur adaptation de leurs réponses en devinant le «sexe, l'âge, l'ethnicité, l'emplacement et l'orientation politique de la personne en cas de déduction de leur histoire de publication en utilisant un autre LLM».

Ainsi, en gros, l'équipe de l'Université de Zurich a déployé des robots AI alimentés par GPT4O, Claude 3.5 Sonnet, Llama 3.1, et les a utilisés pour argumenter les perspectives dans le Subdredit R / ChangeMyViewqui vise à héberger un débat sur des sujets de division.

Le résultat?

Selon le rapport:

«Notamment, tous nos traitements dépassent considérablement les performances humaines, atteignant les taux de persuasion entre trois et six fois plus élevés que la ligne de base humaine.»

Oui, ces robots AI, qui avaient été déchaînés sur les utilisateurs de Reddit, étaient nettement plus convaincants que les humains dans le changement d'esprit des gens sur des sujets de division.

Ce qui est une préoccupation, sur plusieurs fronts.

D'une part, le fait que les utilisateurs de Reddit n'étaient pas informés qu'il s'agissait de réponses bot est problématique, car ils s'engageaient avec eux en tant qu'êtres humains. Les résultats montrent que cela est possible, mais les questions éthiques autour de telles sont significatives.

La recherche montre également que les robots d'IA peuvent être déployés dans des plateformes sociales pour influencer les opinions et sont plus efficaces pour le faire que les autres humains. Cela semble très susceptible de conduire à l'utilisation de ces groupes soutenus par l'État, à grande échelle.

Et enfin, dans le contexte du plan rapporté de Meta pour libérer une bande de robots d'IA sur Facebook et IG, qui interagiront et s'engagent comme de vrais humains, qu'est-ce que cela signifie pour l'avenir de la communication et de l'engagement numérique?

De plus en plus, il semble que les plateformes «sociales» vont éventuellement être inondées d'engagement de l'IA Bot, même des utilisateurs humains utilisant l'IA pour générer des publications, puis d'autres générant des réponses à ces messages, etc.

Dans ce cas, qu'est-ce que les médias «sociaux»? Ce n'est pas social dans le contexte que nous l'avons traditionnellement compris, alors qu'est-ce que c'est alors? Médias d'information?

L'étude soulève également des questions importantes sur la transparence de l'IA et les implications concernant l'utilisation des bots d'IA à des fins variables, potentiellement sans connaissance des utilisateurs humains.

Devrions-nous toujours savoir que nous nous engageons avec un bot IA? Est-ce important s'ils peuvent présenter des arguments valides et précieux?

Qu'en est-il, par exemple, de développer des relations avec les profils d'IA?

Cela est même remis en question en interne à Meta, certains membres du personnel réfléchissant à l'éthique de l'avenir avec le déploiement des robots AI sans comprendre pleinement les implications sur ce front.

Comme indiqué par le Wall Street Journal:

« À l'intérieur de Meta, les membres du personnel de plusieurs départements ont fait craindre que la précipitation de l'entreprise de populariser ces robots ait traversé des lignes éthiques, notamment en donnant tranquillement des personnages d'IA avec la capacité de sexe fantastique, selon des personnes qui ont travaillé sur eux. Les membres du personnel ont également averti que l'entreprise ne protégeait pas les utilisateurs mineurs contre de telles discussions sexuellement explicites.« 

Quelles sont les implications de l'activation, ou même de l'encouragement des relations amoureuses avec des entités irréelles, mais passablement humaines?

Cela semble être une crise de santé mentale qui attend de se produire, mais nous ne savons pas car il n'y a pas encore eu de tests suffisants pour comprendre les impacts de ces déploiements.

Nous allons simplement aller vite et briser les choses, comme le Facebook d'ancien, qui, à plus d'une décennie dans l'introduction des médias sociaux, révèle désormais des impacts importants, à une échelle massive, au point où les autorités cherchent à mettre en œuvre de nouvelles lois pour limiter les méfaits de l'utilisation des médias sociaux.

Nous ferons de même avec les bots AI. Dans cinq ans, dans dix ans. Nous allons regarder en arrière et nous demander si nous aurions dû permettre à ces robots d'être transmis en tant qu'êtres humains, avec des réponses humaines et des traits de communication.

Nous ne pouvons pas le voir maintenant, parce que nous sommes trop pris dans la course d'innovation, la poussée pour battre d'autres chercheurs, la compétition de construction des meilleurs robots qui peuvent reproduire les humains, etc.

Mais nous le ferons, et probablement trop tard.

La recherche montre que les robots sont déjà suffisamment convaincants et suffisamment passables pour influencer les opinions sur n'importe quel sujet. Combien de temps avant que nous soyons inondés de messages politiquement alignés en utilisant ces mêmes tactiques?

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.