Stratégie digitale

Deep Learning – La fin du référencement tel que nous le connaissons

Les dernières nouvelles concernant le départ du responsable de la recherche de Google, Amit Singhal, de l’entreprise avec laquelle il a passé 15 ans, ont eu un effet choquant sur la communauté SEO. Et ce qui est plus surprenant – son successeur, John Giannandrea, est celui qui a travaillé sur l’intelligence artificielle chez Google (y compris RankBrain – la partie de l’algorithme de recherche qui utilise l’IA pour travailler avec un moteur de recherche de requêtes n’était pas capable de comprendre auparavant). Avec ce changement de dirigeants, nous sommes peut-être à l’aube d’une nouvelle ère – l’ère de la transition de la recherche basée sur des algorithmes à la recherche basée sur l’IA.

Pour alimenter son intelligence artificielle, Google utilise l’apprentissage en profondeur (aussi connu sous le nom les réseaux de neurones) – l’une des méthodes d’apprentissage automatique, qui utilise un modèle mathématique pour imiter le fonctionnement des neurones du cerveau humain.

Lecture complémentaire :

  • Amit Singhal à propos de sa retraite

  • Biographie d’Amit Singhal

  • biographie de John Giannandrea

Qu’est-ce que l’apprentissage en profondeur

L’apprentissage profond est construit sur le concept de neurones numériques, organisés en couches. Chaque couche extrait des caractéristiques de niveau supérieur des données d’entrée qu’elle reçoit et transmet ces caractéristiques à la couche suivante. Par conséquent, les couches supérieures sont en mesure de comprendre les concepts derrière les données d’entrée.

Par exemple, si nous allons analyser des images avec un apprentissage en profondeur, la première couche sera alimentée avec des pixels uniques et cette première couche pourra être « entraînée » à reconnaître les formes de ces pixels. Ensuite, les couches supérieures peuvent combiner ces formes pour « comprendre » quels sont les objets affichés dans cette image.

Si nous fournissons juste quelques milliers d’images avec des visages humains à ce réseau de neurones, en disant « ceci est un visage » – c’est ainsi que nous « formons » ses neurones numériques à reconnaître un concept de « visage » – alors au final, il sera capable de reconnaître les visages dans n’importe quelle image.

Capture d'écran 2016-02-14 à 7.40.23 PM.png

Le concept de visage, appris par le meilleur neurone du réseau de neurones.

Mais les réseaux de neurones modernes n’ont pas besoin d’être entraînés par des humains. Le soi-disant « apprentissage non supervisé » permet de détecter les concepts derrière les données d’entrée sans aucun étiquetage. En 2012, les ingénieurs de Google ont publié un article « Création de fonctionnalités de haut niveau à l’aide d’un apprentissage non supervisé à grande échelle« , où ils ont utilisé un réseau de neurones à 9 couches composé de 1 milliard de connexions, pour reconnaître des visages à partir de 10 millions d’images de 200×200 pixels. En conséquence, leur réseau a obtenu une précision de 15,8% en reconnaissant 22 000 catégories d’objets (visages, visages de chat, humains corps etc.) Et personne n’a dit à la machine ce qu’il y avait sur les photos !

Actuellement, l’apprentissage en profondeur est utilisé pour la reconnaissance vocale, le traitement du langage naturel, le traitement d’images et d’autres applications.

Lecture complémentaire :

  • Wikipédia – Apprentissage profond

  • Le Deep Learning en quelques mots – qu’est-ce que c’est, comment ça marche, pourquoi s’en soucier ?

  • Création de fonctionnalités de haut niveau à l’aide d’un apprentissage non supervisé à grande échelle

Comment le Deep Learning a été mis en œuvre dans Google

En 2007, le professeur Geoffrey Hinton, l’un des pionniers des systèmes de réseaux neuronaux, a donné un Google TechTalk sur le Deep Learning. Cela a déclenché tout le buzz autour des réseaux de neurones, et bientôt Google (ainsi qu’IBM ou Microsoft) a commencé à embaucher des experts dans ce domaine.

En 2011, Jeff Dean, la superstar de l’informatique de Google, et le professeur d’IA Andrew Ng ont lancé un projet visant à construire un énorme réseau de neurones. Après la livraison des premiers résultats en 2012, le projet a changé son nom non officiel « Google Brain » en « Deep Learning Project ». Ils travaillaient sur la reconnaissance vocale, la reconnaissance d’images (par exemple, pour fournir des sous-titres automatiques), les publicités, la vue sur la rue, les voitures autonomes et d’autres tâches. Les résultats de leur travail ont été intégrés avec succès dans les produits de Google.

En 2013, Google a acquis DeepMind, une société d’IA basée à Londres. Pour le PDG de DeepMind, Demis Hassabis, l’objectif ultime est de créer une machine d’IA universelle qui traitera n’importe quelle information de n’importe où, puis elle saura quoi faire ensuite – tout comme le fait un cerveau humain.

Cela indique clairement le vecteur du mouvement de Google. Amit Singhal était contre l’utilisation de l’apprentissage automatique dans la recherche Google, car il n’est pas clair comment le réseau neuronal classe les résultats et il est donc plus difficile de modifier son comportement.

Cette résistance lui a coûté une carrière.

Lecture complémentaire :

  • L’IA transforme la recherche Google. Le reste du Web est le suivant

  • Internet to Neural Net – Google : toujours dans la recherche

Comment le Deep Learning va changer le SEO

Menace n°1 : aucun contrôle sur l’algorithme de recherche

Amit Singhal avait raison – avec les réseaux de neurones utilisant l’apprentissage non supervisé, il est très difficile de définir quels facteurs la machine utilise pour classer les sites Web dans la recherche et comment ces facteurs sont liés les uns aux autres. Les facteurs qui sont considérés comme moins efficaces pour l’instant (comme, par exemple, travailler sous HTTPS ou avoir un balisage W3C valide) peuvent avoir une plus grande importance pour un algorithme de classement basé sur l’IA – car la machine utilise une approche différente lorsqu’elle crée ses propres concepts à partir de des données d’entrée. De plus, l’IA peut même commencer à utiliser des facteurs que Google n’utilise pas pour classer les sites Web. Et ni les ingénieurs ni les utilisateurs ne le sauront.

Menace n°2 : Erreurs potentielles dues à la nature de la méthode d’apprentissage en profondeur

Vous souvenez-vous comment Google Translate, qui est également basé sur l’apprentissage automatique, a converti « Fédération de Russie » en « Mordor » dans sa version ukrainienne-russe ? Parmi les autres erreurs figuraient les « Russes » traduits par « occupants » et le nom du ministre russe Sergueï Lavrov traduit par « petit cheval triste ».

Cela s’est produit en raison de la façon dont le réseau neuronal fonctionne avec les données. Et bien que cette erreur particulière ait été remarquée et corrigée, imaginez combien d’erreurs passeront inaperçues (et non corrigées).

Menace n°3 : personnalisation plus poussée

Avec la technologie d’IA déjà utilisée pour diffuser des publicités Google, il est clair que les résultats de recherche seront personnalisés plus fortement au fil du temps. Ainsi, chaque visiteur disposera des résultats de la recherche en fonction de ses précédentes requêtes de recherche, de son âge, de son sexe, de ses revenus et de toutes les autres informations collectées par Google. Ainsi, les classements seront basés sur la personnalité de l’utilisateur et non sur la pertinence des résultats de la recherche par rapport à la requête particulière.

Lecture complémentaire :

  • Google traduit la Russie en « Mordor » et le nom du ministre en « petit cheval triste »

  • Ce que l’apprentissage profond et l’apprentissage automatique signifient pour l’avenir du référencement – Whiteboard Friday

  • Deep Learning et l’avenir de l’optimisation des moteurs de recherche

Le SEO Post-Algorithmique

Dans ce monde post-algorithmique, il sera impossible de créer des liens ou d’optimiser des pages afin de manipuler les résultats de recherche. Même le terme « SEO-friendly » peut disparaître. Au lieu de cela, la seule chose sur laquelle se concentrer sera « conviviale ».

Pour survivre, les experts en optimisation des moteurs de recherche restants passeront à des méthodes moins techniques, telles que le marketing de contenu, les canaux de médias sociaux et la publicité payante.

Et ce sera la fin du référencement tel que nous le connaissons.

Erwan

Rédigé par

Erwan

Erwan, expert digital pour Coeur sur Paris, offre des insights pointus sur le marketing et les réseaux sociaux. Avec une plume vive et une analyse fine, il transforme les complexités du digital en conseils pratiques et tendances à suivre.