Alors que la course au développement de l'IA se réchauffe, nous obtenons plus d'indicateurs d'approches réglementaires potentielles du développement de l'IA, ce qui pourrait finir par entraver certains projets d'IA, tout en assurant une plus grande transparence pour les consommateurs.

Ce qui, étant donné les risques de matériel généré par l'AI, est une bonne chose, mais en même temps, je ne suis pas sûr que nous allons obtenir la diligence raisonnable qui nécessite vraiment pour nous assurer que nous mettons en œuvre de tels outils de la manière la plus protectrice et finalement bénéfique.

Les contrôles des données sont la première limitation potentielle, chaque entreprise qui développe des projets d'IA confrontés à divers défis juridiques en fonction de leur utilisation du matériel protégé par le droit d'auteur pour construire leurs modèles fondamentaux.

La semaine dernière, un groupe de maisons d'édition françaises a lancé une action en justice contre Meta pour violation du droit d'auteur, rejoignant un collectif d'auteurs américains pour exercer leurs droits de propriété contre le géant de la technologie.

Et si l'un ou l'autre de ces cas entraîne un paiement important, vous pouvez parier que toutes les autres sociétés d'édition dans le monde lanceront des actions similaires, ce qui pourrait entraîner d'énormes amendes pour Zuck et Co. en fonction de leur processus de construction des modèles initiaux de son LLAMA LLM.

Et ce n'est pas seulement Meta: Openai, Google, Microsoft et tous les autres développeurs d'IA sont confrontés à des défis juridiques sur l'utilisation du matériel protégé par le droit d'auteur, au milieu de grandes préoccupations concernant le vol de contenu texte pour alimenter ces modèles.

Cela pourrait conduire à de nouveaux précédents juridiques sur l'utilisation des données, ce qui pourrait finalement laisser des plateformes sociales en tant que leaders du développement de LLM, car ils seront les seuls à avoir suffisamment de données propriétaires pour alimenter ces modèles. Mais leur capacité à seserrera telle sera également limitée par leurs accords d'utilisateurs et les clauses de données intégrées après le scandale de Cambridge Analytica (ainsi que la réglementation de l'UE). Dans le même temps, Meta aurait accédé à des livres et des informations piratés pour construire son LLM car son ensemble de données existant, basé sur les publications d'utilisateurs Facebook et IG, n'était pas suffisant pour un tel développement.

Cela pourrait finir par être un obstacle majeur dans le développement de l'IA aux États-Unis en particulier, car les règles de cybersécurité de la Chine permettent déjà au gouvernement chinois d'accéder et d'utiliser des données d'organisations chinoises si et comment ils choisissent.

C'est pourquoi les entreprises américaines plaident pour des restrictions assouplies autour de l'utilisation des données, OpenAI appelant directement au gouvernement à permettre l'utilisation de données protégées par le droit d'auteur dans la formation d'IA.

C'est aussi pourquoi tant de dirigeants technologiques ont cherché à se réconcilier à l'administration Trump, dans le cadre d'un effort plus large pour gagner la faveur de cette offre et des transactions technologiques connexes. Parce que si les entreprises américaines sont confrontées à des restrictions, les fournisseurs chinois vont gagner dans la race plus large de l'IA.

Pourtant, en même temps, le droit d'auteur intellectuel est une considération essentielle, et permettre à votre travail d'être utilisé pour former des systèmes conçus pour rendre votre art et / ou votre vocation obsolète semble être un chemin négatif. Aussi, de l'argent. Lorsqu'il y a de l'argent à gagner, vous pouvez parier que les sociétés exploiteront telles (voir: les avocats qui sautaient sur les revendications du droit d'auteur de YouTube), donc cela semble être un calcul qui définira l'avenir de la race d'IA.

Dans le même temps, davantage de régions mettent désormais en œuvre des lois sur la divulgation de l'IA, la Chine la semaine dernière se joignant à l'UE et aux États-Unis dans la mise en œuvre des réglementations relatives à «l'étiquetage du contenu synthétique».

La plupart des plateformes sociales sont déjà en avance sur ce front, avec Facebook, Instagram, Threads et Tiktok, toutes les règles d'implémentation concernant la divulgation de l'IA, que Pinterest a également ajouté récemment. LinkedIn a également une détection et des étiquettes d'IA en vigueur (mais aucune règle sur le marquage volontaire), tandis que Snapchat élabore également des images AI créées dans ses propres outils, mais n'a aucune règle pour le contenu tiers.

(Remarque: X élaborait des règles de divulgation d'IA en 2020, mais n'a pas officiellement mis en œuvre telle).

Il s'agit également d'une évolution importante, bien que, comme pour la plupart des changements d'IA, nous en voyons une grande partie de cela se produire rétrospectivement, et de manière fragmentaire, ce qui laisse l'obligation à des plateformes spécifiques, par opposition à la mise en œuvre de règles et de procédures plus universelles.

Ce qui, encore une fois, est meilleur pour l'innovation, dans l'ancien sens de Facebook «se déplacer rapidement et briser les choses». Et compte tenu de l'afflux de leaders technologiques à la Maison Blanche, cela est de plus en plus susceptible d'être l'approche à l'avenir.

Mais j'ai toujours envie de pousser l'innovation couvre le risque de plus de mal, et à mesure que les gens dépendent de plus en plus d'outils d'IA pour faire leur réflexion pour eux, tandis que les visuels d'IA deviennent plus enracinés dans le processus interactif moderne, nous négligeons les dangers de l'adoption et de l'utilisation de l'IA de masse, en faveur du succès de l'entreprise.

Devrions-nous être plus préoccupés par les dommages de l'IA?

Je veux dire, pour la plupart, la régurgitation des informations du Web est en grande partie, apparemment juste une modification de notre processus régulier. Mais il y a des risques. Les enfants sous-traitent déjà la pensée critique aux robots d'IA, les gens développent des relations avec des personnages générés par l'IA (qui deviendront plus courants dans les applications sociales), tandis que des millions sont dupés par des images générées par l'IA, des enfants affamés, des personnes âgées solitaires, des enfants innovants de villages éloignés, et plus encore.

Bien sûr, nous n'avons pas vu l'afflux attendu de contenu généré par des AI motivés sur les plus récents élections américaines, mais cela ne signifie pas que le contenu généré par l'IA n'a pas un impact profond à d'autres manières, et la balancement des opinions des gens, et même leur processus interactif. Il y a des dangers ici, et les dommages sont déjà intégrés, mais nous les négligeons parce que les dirigeants ne veulent pas que d'autres nations développent de meilleurs modèles plus rapidement.

La même chose s'est produite avec les médias sociaux, permettant aux milliards de personnes d'accéder aux outils qui ont depuis été liés à diverses formes de préjudice. Et nous essayons maintenant de réduire les choses, avec diverses régions cherchant à interdire les adolescents des médias sociaux pour les protéger de tels. Mais nous avons maintenant deux décennies, et ce n'est qu'au cours des 10 dernières années, il y a eu de réels efforts pour répondre aux dangers de l'interaction sur les réseaux sociaux.

N'avons-nous rien appris de cela?

De toute évidence, pas, car encore une fois, évoluer rapidement et briser les choses, quelles que soient ces choses, est l'approche capitaliste, qui est poussée par des sociétés qui bénéficient le plus de la prise de masse.

Cela ne veut pas dire que l'IA est mauvaise, cela ne veut pas dire que nous ne devrions pas chercher à utiliser des outils d'IA génératifs pour rationaliser divers processus. Ce que je dis, cependant, c'est que le plan d'action de l'IA actuellement proposé de la Maison Blanche, et d'autres initiatives comme celle-ci, devraient prendre en compte des risques tels que des facteurs importants dans le développement de l'IA.

Ils ne le feront pas. Nous le savons tous, et dans dix ans, nous examinerons comment limiter les dommages causés par des outils génératifs de l'IA et comment nous restreignions leur utilisation.

Mais les principaux acteurs gagneront, c'est aussi pourquoi je m'attends à ce que, finalement, toutes ces réclamations de droit d'auteur disparaîtront également, en faveur d'une innovation rapide.

Parce que le battage médiatique de l'IA est réel et que l'industrie de l'IA devrait devenir un marché de 1,3 billion de dollars.

La pensée critique, la capacité interactive, la santé mentale, tout cela est sur le point de s'impliquer, à grande échelle, en conséquence.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.