Alors que les outils d’IA générative continuent de proliférer, de plus en plus de questions se posent sur les risques de ces processus et sur les mesures réglementaires pouvant être mises en œuvre pour protéger les personnes contre la violation du droit d’auteur, la désinformation, la diffamation, etc.
Et même si une réglementation gouvernementale plus large serait l’étape idéale, cela nécessite également une coopération mondiale, ce qui, comme nous l’avons vu dans les applications de médias numériques passées, est difficile à établir étant donné les différentes approches et opinions sur les responsabilités et les actions requises.
En tant que tel, il reviendra très probablement aux petits groupes industriels et aux entreprises individuelles de mettre en œuvre des mesures et des règles de contrôle afin d’atténuer les risques associés aux outils d’IA générative.
C’est pourquoi cela pourrait être une étape importante – aujourd’hui, Meta et Microsoft, qui est désormais un investisseur clé dans OpenAI, ont tous deux signé le Partenariat sur l’IA (PAI) Pratiques responsables pour les médias synthétiques initiative, qui vise à établir un accord de l’industrie sur pratiques responsables dans le développement, la création et le partage de médias créés via l’IA générative.
Selon PAI :
« Le cadre, le premier du genre, a été lancé en février par PAI et soutenu par une cohorte inaugurale de partenaires de lancement, dont Adobe, BBC, CBC/Radio-Canada, Bumble, OpenAI, TikTok, WITNESS et les startups de médias synthétiques Synthesia, D -ID et répondeur. Les partenaires du cadre se réuniront plus tard ce mois-ci lors du Forum des partenaires 2023 de PAI pour discuter de la mise en œuvre du cadre à travers des études de cas et pour créer des recommandations pratiques supplémentaires pour le domaine de l’IA et de l’intégrité des médias.
PAI indique que le groupe s’efforcera également de clarifier ses directives sur la divulgation responsable des médias synthétiques, tout en abordant les implications techniques, juridiques et sociales des recommandations concernant la transparence.
Comme indiqué, il s’agit d’un domaine d’importance en croissance rapide, que les sénateurs américains cherchent également à maîtriser avant qu’il ne devienne trop important pour être réglementé.
Plus tôt aujourd’hui, Le sénateur républicain Josh Hawley et le sénateur démocrate Richard Blumenthal introduit une nouvelle législation cela supprimerait les protections de l’article 230 pour les entreprises de médias sociaux qui facilitent le partage de contenu généré par l’IA, ce qui signifie que les plateformes elles-mêmes pourraient être tenues responsables de la diffusion de matériel préjudiciable créé via des outils d’IA.
Il reste encore beaucoup à faire dans ce projet de loi, et il sera difficile de le faire approuver. Mais le fait qu’il soit même proposé souligne les préoccupations croissantes des autorités de réglementation, en particulier concernant l’adéquation des lois existantes pour couvrir les sorties génératives de l’IA.
PAI n’est pas le seul groupe travaillant à établir des lignes directrices sur l’IA. Google a déjà publié ses propres « principes d’IA responsable », tandis que LinkedIn et Meta ont également partagé leurs règles directrices sur leur utilisation de ceux-ci, les deux derniers reflétant probablement une grande partie de ce sur quoi ce nouveau groupe sera aligné, étant donné qu’ils ‘ re les deux (effectivement) signataires du cadre.
C’est un domaine important à prendre en compte, et comme la désinformation dans les applications sociales, cela ne devrait vraiment pas se résumer à une seule entreprise et à un seul dirigeant, faisant des appels sur ce qui est et n’est pas acceptable, c’est pourquoi des groupes industriels comme celui-ci offrent certains l’espoir d’un consensus et d’une mise en œuvre plus larges.
Mais même ainsi, cela prendra du temps – et nous ne connaissons même pas encore tous les risques associés à l’IA générative. Plus il sera utilisé, plus les défis surgiront et, au fil du temps, nous aurons besoin de règles adaptatives pour lutter contre les abus potentiels et lutter contre la montée du spam et du courrier indésirable générés par l’utilisation abusive de ces systèmes.