Hé, tu te souviens comment la semaine dernière, TikTok a ajouté de nouvelles étiquettes de contenu généré par l’IA et de nouvelles règles interdisant la publication de contenu généré par l’IA sans elles ?
Ce serait une des raisons pour lesquelles :
TikTok a des problèmes de contenu généré par l’IA
Et ça va devenir bien pire… ???? ???????? pic.twitter.com/IihehN8pp8
– Matt Navarra (@MattNavarra) 25 septembre 2023
Comme vous pouvez le voir dans cet exemple, publié par un expert des médias sociaux Matt NavarreTikTok voit actuellement un afflux de spam créé par l’IA, avec un personnage simulé présentant un outil horrible qui prétend « enlever les vêtements de n’importe quelle image de votre choix ».
Ouais, tout va mal, et il y a un tas de profils faisant la promotion de la même chose dans l’application.
Comme beaucoup l’ont prévenu, l’essor de l’IA générative facilitera tous les nouveaux types d’attaques de spam, en rendant beaucoup plus facile la création d’un tas de profils et de vidéos comme celui-ci, qui ne duperont pas nécessairement les vrais utilisateurs, mais pourraient passez à travers les systèmes de détection de chaque application et gagnez en portée, même si elles finissent par être supprimées.
Ce qui, on pourrait supposer qu’ils le feront, étant donné que TikTok a désormais des règles très claires à ce sujet.
« Nous saluons la créativité que la nouvelle intelligence artificielle (IA) et d’autres technologies numériques pourraient libérer. Cependant, l’IA peut rendre plus difficile la distinction entre réalité et fiction, ce qui comporte des risques à la fois sociétaux et individuels.. Les médias synthétiques ou manipulés montrant des scènes réalistes doivent être clairement divulgués. Cela peut être fait en utilisant un autocollant ou une légende, telle que « synthétique », « faux », « pas réel » ou « modifié ».
Cependant, techniquement, je ne suis pas sûr à 100 % que ce type de vidéo serait couvert par cette politique, car même si elle représente une personne réelle, il ne s’agit pas d’une « scène réaliste » en tant que telle. La politique est davantage orientée vers le contenu canular, comme Le Pape dans une doudoune, ou le récent attentat à la bombe contre le Pentagone, créé par l’IA.
Mais une fausse personne faisant la promotion d’une application poubelle compte-t-elle dans ce contexte ?
Si ce n’est pas encore là, je suppose que TikTok étendra ses règles pour couvrir ce type de contenu, car c’est le type de contenu qui pourrait devenir très problématique, d’autant plus que de plus en plus de ces versions robotiques et mal scénarisées de personnes continuent d’apparaître. Et à mesure que la technologie évolue, il deviendra encore plus difficile de faire la distinction entre les vraies et les fausses personnes.
Je veux dire, c’est assez simple avec le clip ci-dessus, mais certains des autres exemples d’IA semblent plutôt bons.
Le propriétaire de X, Elon Musk, a été l’un des les voix les plus fortes avertissent à ce sujetsoulignant à plusieurs reprises l’afflux prochain de spam qui utilisera ces nouvelles technologies.
Comme le note Musk, cela fait partie de sa propre volonté de mettre en œuvre la vérification, comme moyen de filtrer le contenu des robots. Et même si tout le monde n’est pas d’accord sur le fait que la vérification payante est la solution, les exemples ci-dessus de TikTok sont exactement le genre de chose contre laquelle Musk met en garde et essaie de trouver une solution à résoudre.
En tant que tel, vous pouvez vous attendre à ce que chaque plate-forme introduise prochainement de nouvelles règles de contenu IA, avec Instagram aussi développer ses propres labels de contenu IAet YouTube travaille sur ses propres outils pour faire face aux « Tsunami IA».
Parce que ça va empirer.
Attendez-vous à voir bientôt plus de robots dans vos flux sociaux.