YouTube cherche à étendre ses divulgations autour du contenu généré par l'IA, avec un nouvel élément dans Creator Studio où les créateurs devront divulguer lorsqu'ils téléchargent du contenu réaliste créé avec des outils d'IA.
Comme vous pouvez le voir dans cet exemple, désormais, les créateurs YouTube devront cocher la case lorsque le contenu de leur mise en ligne « est modifié ou synthétique et semble réel », afin d'éviter les deepfakes et la désinformation via des représentations manipulées ou simulées.
Lorsque la case est cochée, un nouveau marqueur sera affiché sur votre clip vidéo, indiquant au spectateur qu'il ne s'agit pas d'une séquence réelle.
Selon YouTube :
« Le nouveau label vise à renforcer la transparence auprès des téléspectateurs et à instaurer la confiance entre les créateurs et leur public. Certains exemples de contenu qui doivent être divulgués incluent l'utilisation de l'image d'une personne réaliste, modifier des images d'événements ou de lieux réels, et générer des scènes réalistes.
YouTube note en outre que toutes les utilisations de l’IA ne nécessiteront pas de divulgation.
Les scripts et les éléments de production générés par l'IA ne sont pas couverts par ces nouvelles règles, tandis que le « contenu clairement irréaliste » (c'est-à-dire l'animation), les ajustements de couleurs, les effets spéciaux et les filtres de beauté pourront également être utilisés en toute sécurité sans la nouvelle divulgation.
Mais tout contenu susceptible d’induire en erreur devra être étiqueté. Et si vous n'en ajoutez pas, YouTube peut également en ajouter un pour vous, s'il détecte l'utilisation de médias synthétiques et/ou manipulés dans votre clip.
Il s'agit de la prochaine étape pour YouTube visant à garantir la transparence de l'IA, la plate-forme ayant déjà annoncé l'année dernière de nouvelles exigences en matière de divulgation de l'utilisation de l'IA, avec des étiquettes qui informeront les utilisateurs d'une telle utilisation.
Cette nouvelle mise à jour est la prochaine étape de ce développement, ajoutant davantage d'exigences de transparence avec le contenu simulé.
Ce qui est une bonne chose. Nous avons déjà vu des images générées semer la confusion, tandis que les campagnes politiques utilisaient des visuels manipulés, dans l'espoir d'influencer l'opinion des électeurs.
Et il est certain que l’IA sera de plus en plus utilisée.
La seule question est donc de savoir pendant combien de temps serons-nous réellement capables de le détecter ?
Diverses solutions sont testées dans ce domaine, notamment le filigrane numérique pour garantir que les plateformes sachent quand l'IA a été utilisée. Mais cela ne s'appliquera pas, par exemple, à une copie d'une copie, si un utilisateur refilme ce contenu d'IA sur son téléphone, par exemple, en supprimant toute vérification potentielle.
Il y aura des moyens de contourner ce problème, et à mesure que l'IA générative continue de s'améliorer, en particulier dans la génération vidéo, il deviendra de plus en plus difficile de savoir ce qui est réel et ce qui ne l'est pas.
Des règles de divulgation comme celle-ci sont essentielles, car elles donnent aux plateformes un moyen de les faire respecter. Mais ils pourraient ne pas être efficaces trop longtemps.