Alors qu'elle continue de développer des modèles d'IA plus avancés et de travailler vers une intelligence générale automatisée (AGI), Meta souhaite également établir des garde-fous et des bonnes pratiques. des normes de sécurité pour garantir que l’IA n’asservit pas la race humaine.

Entre autres préoccupations.

C'est pourquoi aujourd'hui, Meta a annoncé qu'elle rejoignait le Frontier Model Forum (FMF), un collectif à but non lucratif sur la sécurité de l'IA qui s'efforce d'établir des normes et des réglementations industrielles autour du développement de l'IA.

Comme l'explique la FMF :

« En tant qu'organisation à but non lucratif et seul organisme soutenu par l'industrie et dédié à l'amélioration de la sécurité des modèles d'IA frontaliers, la FMF est particulièrement bien placée pour réaliser de réels progrès dans l'identification des défis communs et des solutions réalisables. Nos membres partagent le désir de bien faire les choses en matière de sécurité – à la fois parce que c’est la bonne chose à faire et parce que plus l’IA aux frontières est sûre, plus elle sera utile et bénéfique pour la société.

Meta et Amazon rejoindront Anthropic, Google, Microsoft et OpenAI en tant que membres de la mission FMF, qui mènera idéalement à l'établissement des meilleures réglementations de sécurité en matière d'IA. Ce qui pourrait nous éviter de compter sur John Connor pour diriger la résistance humaine.

Selon Nick Clegg, président des affaires mondiales de Meta :

« Meta s'engage depuis longtemps en faveur de la croissance et du développement continus d'un écosystème d'IA plus sûr et ouvert qui donne la priorité à la transparence et à la responsabilité. Le Frontier Model Forum nous permet de poursuivre ce travail aux côtés de partenaires industriels, en mettant l’accent sur l’identification et le partage des meilleures pratiques pour contribuer à assurer la sécurité de nos produits et modèles.»

La FMF travaille actuellement à la création d'un conseil consultatif ainsi que de divers arrangements institutionnels, notamment une charte, une gouvernance et un financement, avec un groupe de travail et un conseil d'administration pour diriger ces efforts.

Et même si un avenir dominé par les robots peut sembler tiré par les cheveux, le FMF abordera de nombreuses autres préoccupations, notamment la génération de contenu illégal, l'utilisation abusive de l'IA (et comment l'éviter), le droit d'auteur, et bien plus encore (remarque : Meta a également récemment rejoint l'initiative « Safety by Design » pour empêcher l’utilisation abusive des outils d’IA générative pour perpétrer l’exploitation des enfants).

Mais pour Meta en particulier, les dangers de l’AGI sont effectivement prémonitoires.

Les méta L’équipe de recherche fondamentale sur l’IA (FAIR) travaille déjà au développement de l’intelligence au niveau humain et à la simulation numérique des neurones du cerveau, ce qui équivaudrait à « penser » dans un environnement simulé.

Pour être clair, nous n’en sommes pas encore loin, car même si les derniers outils d’IA sont impressionnants par ce qu’ils sont capables de produire, il s’agit en réalité de systèmes mathématiques très complexes, qui font correspondre les requêtes avec les réponses basées sur les données auxquelles ils peuvent accéder. Ils ne « réfléchissent » pas, c'est juste une estimation de ce qui vient logiquement ensuite, basée sur les paramètres d'une question donnée.

AGI sera capable de faire tout cela par elle-même et de formuler des idées sans invite humaine.

Ce qui est un peu effrayant et pourrait bien sûr entraîner davantage de problèmes.

D’où la nécessité pour des groupes comme FMF de superviser le développement de l’IA et de veiller à ce que les responsables de ces expériences ne nous guident pas accidentellement vers la fin des temps.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.