La croissance du contenu génératif d’IA a été rapide et continuera de prendre de l’ampleur à mesure que de plus en plus de gestionnaires Web et d’éditeurs cherchent à maximiser l’optimisation et à rationaliser la productivité via des outils numériques avancés.
Mais que se passe-t-il lorsque le contenu de l’IA dépasse l’apport humain ? Que devient Internet lorsque tout n’est qu’une copie d’une copie d’une ressemblance numérique de la production humaine réelle ?
C'est la question que beaucoup se posent désormais, alors que les plateformes sociales cherchent à ériger des murs autour de leurs ensembles de données, laissant les start-ups d'IA se démener pour trouver de nouvelles entrées pour leurs LLM.
X (anciennement Twitter), par exemple, a augmenté le prix de son accès à l'API, afin d'empêcher les plateformes d'IA d'utiliser les publications X, car elle développe son propre modèle « Grok » basé sur celui-ci. Meta a longtemps limité l'accès aux API, encore plus depuis la catastrophe de Cambridge Analytica, et vante également son pool de données inégalé pour alimenter son Llama LLM.
Google a récemment conclu un accord avec Reddit pour intégrer ses données dans ses systèmes d'IA Gemini, et c'est une autre voie que vous pouvez vous attendre à voir davantage, car les plateformes sociales qui ne cherchent pas à créer leurs propres modèles d'IA recherchent de nouvelles sources de revenus grâce à leur connaissances.
Le Wall Street Journal a rapporté aujourd'hui qu'OpenAI envisageait de former son modèle GPT-5 sur des transcriptions YouTube accessibles au public, craignant que la demande de données de formation précieuses ne dépasse l'offre d'ici deux ans.
C'est un problème important, car même si la nouvelle série d'outils d'IA est capable de produire du texte de type humain, sur pratiquement n'importe quel sujet, il ne s'agit pas encore d'« intelligence » en tant que telle. Les modèles d'IA actuels utilisent la logique machine et des hypothèses dérivées pour placer un mot après l'autre dans une séquence, sur la base d'exemples créés par l'homme dans leur base de données. Mais ces systèmes ne peuvent pas penser par eux-mêmes et ils n’ont aucune conscience de la signification des données qu’ils génèrent. Ce sont des mathématiques avancées, sous forme textuelle et visuelle, définies par une logique systématique.
Cela signifie que les LLM et les outils d’IA qui en découlent, du moins pour le moment, ne remplacent pas l’intelligence humaine.
C’est bien sûr la promesse de « l’intelligence générale artificielle » (AGI), des systèmes capables de reproduire la façon dont les humains pensent et de proposer leur propre logique et leur propre raisonnement pour accomplir des tâches définies. Certains suggèrent que cela n’est pas vraiment une réalité, mais encore une fois, les systèmes auxquels nous pouvons actuellement accéder sont loin de ce que AGI pourrait théoriquement réaliser.
C’est également là que de nombreux condamnateurs de l’IA s’inquiètent du fait qu’une fois que nous aurons atteint un système qui reproduit un cerveau humain, nous pourrions nous rendre obsolètes, avec une nouvelle intelligence technologique prête à prendre le relais et à devenir l’espèce dominante sur terre.
Mais la plupart des universitaires en IA ne croient pas que nous soyons proches de cette prochaine avancée, malgré ce que nous constatons dans la vague actuelle de battage médiatique sur l’IA.
Yann LeCun, scientifique en chef de l'IA chez Meta, a récemment discuté de cette notion sur le podcast Lex Friedman, notant que nous ne sommes pas encore proches de l'AGI pour un certain nombre de raisons :
« La première est qu’il existe un certain nombre de caractéristiques d’un comportement intelligent. Par exemple, la capacité de comprendre le monde, de comprendre le monde physique, la capacité de se souvenir et de récupérer des choses, la mémoire persistante, la capacité de raisonner et la capacité de planifier. Ce sont quatre caractéristiques essentielles des systèmes ou entités intelligents, humains, animaux. Les LLM ne peuvent faire rien de tout cela, ou alors ils ne peuvent le faire que de manière très primitive.
LeCun affirme que la quantité de données collectées par les humains dépasse de loin les limites des LLM, qui dépendent des connaissances humaines dérivées d'Internet.
« Nous voyons beaucoup plus d'informations que nous n'en glanons dans le langage, et malgré notre intuition, la plupart de ce que nous apprenons et la plupart de nos connaissances proviennent de notre observation et de nos interactions avec le monde réel, et non du langage. »
En d’autres termes, c’est sa capacité interactive qui constitue la véritable clé de l’apprentissage, et non de la reproduction du langage. Les LLM, en ce sens, sont des perroquets avancés, capables de répéter ce que nous nous avons dit. Mais aucun « cerveau » ne peut comprendre toutes les diverses considérations humaines derrière ce langage.
En gardant cela à l’esprit, c’est un terme impropre, à certains égards, même d’appeler ces outils « intelligence », et probablement l’un des contributeurs aux conspirations d’IA susmentionnées. Les outils actuels nécessitent des données sur la façon dont nous interagissons, afin de les reproduire, mais il n'existe aucune logique adaptative qui comprend ce que nous voulons dire lorsque nous leur posons des questions.
Il est douteux que les systèmes actuels constituent ne serait-ce qu'un pas vers l'AGI à cet égard, mais il s'agit plutôt d'une note secondaire dans un développement plus large, mais encore une fois, le principal défi auquel ils sont désormais confrontés est qu'à mesure que de plus en plus de contenu Web est traité via ces systèmes, le réel les résultats que nous observons deviennent moins humains, ce qui semble être un changement clé pour l’avenir.
Les plateformes sociales permettent d'augmenter de plus en plus facilement votre personnalité et vos connaissances grâce aux résultats de l'IA, en utilisant le plagiat avancé pour vous présenter comme quelque chose que vous n'êtes pas.
Est-ce l’avenir que nous voulons ? Est-ce vraiment une avance ?
D’une certaine manière, ces systèmes entraîneront des progrès significatifs dans la découverte et le processus, mais l’effet secondaire de la création systématique est que la couleur est effacée de l’interaction numérique, et notre situation pourrait potentiellement s’aggraver.
Essentiellement, nous assisterons probablement à une dilution de l’interaction humaine, au point où nous devrons tout remettre en question. Ce qui éloignera davantage de personnes des publications publiques et les orientera davantage vers des discussions fermées et privées, où vous connaissez et faites confiance aux autres participants.
En d’autres termes, la course à l’intégration de ce qui est actuellement décrit comme « l’IA » pourrait s’avérer négative et pourrait voir la partie « sociale » des « médias sociaux » entièrement fragilisée.
Ce qui laissera de moins en moins d’apport humain aux LLM au fil du temps et érodera les fondations mêmes de tels systèmes.