Cela pourrait jeter un frein à la tendance croissante des éléments d’IA génératifs dans les applications sociales.
Aujourd’hui, Le sénateur républicain Josh Hawley et le sénateur démocrate Richard Blumenthal introduit une législation qui contournerait efficacement les protections de l’article 230 pour les entreprises de médias sociaux en ce qui concerne le contenu généré par l’IA, ce qui signifierait que les plateformes pourraient être tenues responsables de la diffusion de matériel préjudiciable créé via des outils d’IA.
Selon le site Web de Hawley :
« Cette nouvelle législation bipartite clarifierait que l’immunité de l’article 230 ne s’appliquera pas aux allégations basées sur l’IA générative, garantissant que les consommateurs disposent des outils dont ils ont besoin pour se protéger contre les contenus préjudiciables produits par les dernières avancées de la technologie de l’IA. Par exemple, les « deepfakes » générés par l’IA – de fausses images réalistes d’individus réels – explosent en popularité. Les gens ordinaires peuvent maintenant subir des conséquences destructrices pour avoir dit des choses qu’ils n’ont jamais dites ou fait des choses qu’ils n’auraient jamais faites. Les entreprises complices de ce processus devraient être tenues responsables devant les tribunaux.
L’article 230 protège les fournisseurs de médias sociaux contre la responsabilité légale concernant le contenu que les utilisateurs partagent sur leurs plateformes, en précisant que les plateformes elles-mêmes ne sont pas l’éditeur ou le créateur des informations fournies par les utilisateurs. Cela garantit que les entreprises de médias sociaux sont en mesure de faciliter une expression plus libre et plus ouverte – bien que beaucoup soutiennent, depuis de nombreuses années maintenant, que cela n’est plus applicable en raison de la manière dont les plateformes sociales amplifient et distribuent de manière sélective le contenu des utilisateurs.
Jusqu’à présent, aucune des contestations des protections de l’article 230, basées sur une interprétation mise à jour, n’a résisté devant les tribunaux. Mais avec cette nouvelle poussée, les sénateurs américains cherchent à devancer la vague d’IA générative avant qu’elle ne devienne une tendance encore plus importante, ce qui pourrait conduire à une désinformation généralisée et à des contrefaçons dans les applications sociales.
Ce qui est moins clair dans le libellé actuel du projet de loi, c’est ce que cela signifie exactement en termes de responsabilité. Par exemple, si un utilisateur devait créer une image dans DALL-E ou Midjourney, puis la partager sur Twitter, Twitter en serait-il responsable, ou les créateurs des applications d’IA génératives d’où provient l’image ?
Les spécificités ici pourraient avoir une incidence importante sur les types d’outils que les plateformes sociales cherchent à créer, Snapchat, TikTok, LinkedIn, Instagram et Facebook expérimentant déjà des options d’IA génératives intégrées qui permettent aux utilisateurs de créer et de distribuer ce contenu dans chaque application.
Si la loi concerne la distribution, chaque application sociale devra mettre à jour ses processus de détection et de transparence pour y répondre, tandis que si elle concerne la création, cela pourrait également les arrêter dans leurs voies de développement sur le front de l’IA.
Il semble qu’il sera difficile pour les sénateurs de faire approuver un tel projet de loi, compte tenu des diverses considérations et de l’évolution des outils d’IA générative. Mais dans tous les cas, la poussée met en évidence l’inquiétude croissante des gouvernements et des groupes de réglementation concernant l’impact potentiel de l’IA générative et la manière dont ils pourront contrôler cette évolution.
En ce sens, vous pouvez probablement vous attendre à beaucoup plus de querelles juridiques sur la réglementation de l’IA à l’avenir, alors que nous nous attaquons à de nouvelles approches pour gérer l’utilisation de ce contenu.
Cela concernera également le droit d’auteur, la propriété et diverses autres considérations concernant le contenu de l’IA, qui ne sont pas couvertes par les lois actuelles.
Il existe des risques inhérents à ne pas mettre à jour les lois à temps pour répondre à ces exigences en constante évolution – mais, dans le même temps, des réglementations réactives pourraient entraver le développement et ralentir les progrès.