Avec un flux croissant d'images génératives d'IA circulant sur le Web, Meta a annoncé aujourd'hui qu'elle adhère à un nouvel ensemble de principes de développement d'IA, conçus pour empêcher l’utilisation abusive des outils d’IA générative pour perpétrer l’exploitation des enfants.
Le programme « Safety by Design », initié par organisation de lutte contre la traite des êtres humains Thorn et le groupe de développement responsable All Tech is Human présentent une gamme d'approches clés que les plateformes peuvent s'engager à entreprendre dans le cadre de leur développement d'IA générative.
Ces mesures concernent principalement :
- Approvisionnement responsable en ensembles de données de formation en IA, afin de les protéger contre les abus sexuels sur enfants
- S'engager à effectuer des tests de résistance rigoureux sur les produits et services d'IA générative afin de détecter et d'atténuer les résultats préjudiciables.
- Investir dans la recherche et les solutions technologiques d’avenir pour améliorer ces systèmes
Comme l'explique Thorn :
« De la même manière que les violences sexuelles contre les enfants, hors ligne et en ligne, ont été accélérées par Internet, l’utilisation abusive de l’IA générative a de profondes implications sur la sécurité des enfants, en termes d’identification des victimes, de victimisation, de prévention et de prolifération des abus. Cette mauvaise utilisation, et les dommages en aval qui y sont associés, se produisent déjà et justifient aujourd’hui une action collective. Le besoin est clair : nous devons atténuer l’utilisation abusive des technologies d’IA générative pour perpétrer, proliférer et aggraver les méfaits sexuels contre les enfants. Ce moment nécessite une réponse proactive.
En effet, divers rapports ont déjà indiqué que des générateurs d’images IA sont utilisés pour créer des images explicites de personnes sans leur consentement, y compris d’enfants. Il s’agit évidemment d’une préoccupation majeure, et il est important que toutes les plateformes s’efforcent d’éliminer les abus, lorsque cela est possible, en veillant à combler les lacunes de leurs modèles qui pourraient faciliter de tels abus.
Le problème ici est que nous ne connaissons pas toute l’étendue de ce que ces nouveaux outils d’IA peuvent faire, car cette technologie n’a jamais existé dans le passé. Cela signifie que beaucoup de choses se résumeront à des essais et des erreurs, et que les utilisateurs trouvent régulièrement des moyens de contourner les garanties et les mesures de protection, afin que ces outils produisent des résultats préoccupants.
C'est pourquoi les ensembles de données de formation constituent une priorité importante, afin de garantir que ce contenu ne pollue pas ces systèmes en premier lieu. Mais inévitablement, il y aura des moyens d'utiliser à mauvais escient les processus de génération autonomes, et cela ne fera qu'empirer à mesure que les outils de création vidéo IA deviendront plus viables au fil du temps.
C'est encore une fois pourquoi c'est important, et il est bon de voir Meta s'inscrire au nouveau programme, aux côtés de Google, Amazon, Microsoft et OpenAI, entre autres.
Vous pouvez en savoir plus sur le programme « Safety by Design » ici.