Vous n'êtes pas membre (devenir membre) ou pas connecté (se connecter)
Startup

Startup

Que font les autres ?

Les expériences des entrepreneurs.

Les français qui lancent leur startup.

Les tendances dans les autres pays à adapter en France.

Les idées de produits et de services.

Comment développer les entreprises, leur faire vendre plus...

Web marketing et référencement naturel – l’intelligence artificielle de Google va sonner le glas du SEO que l’on connait

Audience de l'article : 9283 lectures
Nombre de commentaires : 0 réactions
Dans un avenir proche, l’algorithme de recherche de Google va connaitre, de profonds bouleversements. La semaine dernière, nous avons relaté la mort du PageRank et ses conséquences sur le référencement naturel ou SEO (pour Search Engine Optimisation).

deep-learning

Une nouvelle info troublante laisse à penser que nous ne sommes qu’aux prémices de nouveaux changements majeurs, qui vont largement impacter – voire remettre à plat - les stratégies d’optimisation du référencement naturel, et donner des sueurs froides aux spécialistes du SEO.

Mais qu’est-ce que nous prépare donc le n°1 de la recherche sur Internet dans le monde ?

amit-singhal

Dans la guerre du référencement naturel, les dernières nouvelles du front ont encore une fois fait l’effet d’une bombe sur la communauté SEO. Le Head of Google Search (le directeur de l’algo), Amit Singhal, quitte l'entreprise après 15 ans de bons et loyaux services. A 47 ans, l’ingénieur informaticien quittera, le 26 février, son poste prestigieux… poussé vers la sortie.

Et ce qui est le plus surprenant, c’est que l’on connait son successeur : John Giannandrea. C’est lui qui a travaillé sur l'intelligence artificielle (IA) chez Google,  notamment le RankBrain - la partie de l'algorithme qui utilise l’IA pour travailler avec le moteur de recherche sur des requêtes qu’il n'était pas en mesure de comprendre auparavant. RankBrain n’est pas nouveau ; il a été déployé en 2013 avec le nouvel algorithme de recherche baptisé Hummingbird.

Mais avec ce changement de dirigeants dans le saint des saints de la recherche sur le Net, nous pourrions être sur le point d'entrer dans une nouvelle ère - l'ère de la transition de la recherche basée sur un algorithme, à une recherche qui repose sur l'IA.

Pour alimenter son intelligence artificielle, Google utilise le fameux deep learning, l'apprentissage en profondeur via un réseau de neurones artificiels. C’est l’ensemble des méthodes d'apprentissage qui utilise un modèle mathématique pour imiter le fonctionnement des neurones du cerveau humain.

Un petit mot sur le deep learning

Le deep learning repose sur le concept des réseaux de neurones numériques, organisés en couches. Chaque couche prend ses entrées sur les sorties de la précédente et transmet ces fonctionnalités à la couche suivante .A la fin, les couches supérieures sont en mesure de comprendre les concepts derrière les données d'entrée.

Par exemple, si nous analysons des images avec l'apprentissage en profondeur, la première couche sera alimentée avec des pixels simples et cette première couche peut être « éduquée »" à reconnaître les formes de ces pixels. Puis, les couches supérieures peuvent combiner ces formes afin de « comprendre » que ce sont des objets qui sont affichés dans cette image.

Si nous fournissons des milliers d'images avec des visages humains à ce réseau de neurones, en lui disant « ceci est un visage » - voilà comment les ingénieurs « entrainent et éduquent » ces neurones numériques à reconnaître le concept de « visage ». A la fin, le programme d’IA sera en mesure de reconnaître les visages dans une image.

Streetview

Cela est si efficace, que les réseaux de neurones numériques de Google parviennent à lire les numéros (avec les formes les plus diverses) sur les maisons ou les boites à lettres dans Google Street View. Parmi les conséquences : les captchas peuvent être désormais lus par des robots, et ne serviront bientôt plus à rien.

Mais les réseaux de neurones modernes n’ont plus besoin d’être éduqués par les humains. L'« apprentissage non supervisé » permet de détecter les concepts derrière les données d'entrée sans quelles soient labélisées. Dès 2012, les ingénieurs de Google ont publié un document de recherche, Building High-level Features Using Large Scale Unsupervised Learning, où ils ont utilisé un réseau de neurones avec 9 couches, constitué d’1 milliard de connexions, dans le but de faire reconnaître les visages parmi 10 millions images de 200x200 pixels. Résultat, leur réseau a obtenu 15,8% de précision dans la reconnaissance de 22 000 catégories d’objets (visages, chats, des corps humains, etc.) Et cette fois, personne n’a dit à l’IA ce qu’il y avait sur les photos.

Actuellement, l'apprentissage en profondeur est utilisé pour la reconnaissance vocale, le traitement automatique du langage naturel, le traitement des images et d'autres applications.

Google a déjà commencé à mettre en œuvre le deep learning un peu partout

En 2007, le professeur Geoffrey Hinton, l'un des pionniers des systèmes de réseaux de neurones numériques, a donné une conférence sur l'apprentissage en profondeur. C’est la naissance du buzz autour de réseaux de neurones, et bientôt Google (tout comme IBM ou Microsoft) a commencé à engager des pointures dans ce domaine.

En 2011, l’informaticien superstar de Google, Jeff Dean, et le professeur en IA, Andrew Ng, ont démarré le projet de construction d'un vaste réseau de neurones. Après les premiers résultats en 2012, le projet a changé son nom officieux, « Google Brain », pour devenir le « Deep Learning Project ».Ils ont alors travaillé sur la reconnaissance vocale, la reconnaissance d'images, la voiture sans conducteur et bien d'autres fonctionnalités. Les résultats de leurs travaux ont été implémentés avec succès dans les produits Google.

deep learn features

En 2013, Google a racheté DeepMind, une société d’IA basée à Londres. Pour le PDG de DeepMind, Demis Hassabis, le but ultime est de créer une machine IA universelle qui va traiter toutes les informations de n'importe où, et qui saura quoi faire - tout comme un cerveau humain.

Bref, tout cela indique clairement l’orientation prise par Google. Amit Singhal était contre l'utilisation de l'apprentissage de l’IA à l'intérieur du moteur de recherche - Google Search. Car pour Amit Singhal, on ne sait pas comment le réseau de neurones classe les résultats - ce qui rend donc plus difficile les modifications à apporter à son comportement.

Cette réticence lui a sans doute coûté sa carrière chez Google.

En quoi le deep learning va boulverser l’univers SEO

how-will-AI influence-seo-

- Problème n°1 : plus aucun contrôle sur l'algorithme de recherche

Amit Singhal n’a pas tort. Avec les réseaux de neurones qui utilisent l'apprentissage non supervisé, il est très difficile de définir quels sont les facteurs que l’IA utilise pour classer les résultats en fonction des recherches .Et surtout de déterminer comment ces facteurs sont liés les uns aux autres. Les facteurs qui sont considérés comme moins importants pour le moment (comme, par exemple, travailler sous HTTPS ou avoir un balisage valide W3C) pourront avoir une plus grande importance avec un algorithme de classement basé sur l’IA - parce que la machine utilise une approche différente quand elle crée ses propres concepts à partir des données d'entrée. En outre, l'IA peut même commencer à utiliser des facteurs que l’actuel algo de Google n’utilise pas pour classer les résultats. Et ni les utilisateurs, pas plus que les ingénieurs de Mountain View sauront ce qui se passe.

- Problème n°2 : des erreurs possibles en raison de la méthode deep learning

Vous souvenez peut-être comment Google traduction, qui est également basée sur l'apprentissage automatique, traduit « Fédération de Russie » dans sa version de l'ukrainien au russe : « Mordor ». Parmi les autres erreurs, on peut citer « Rusians » traduit par « occupants », ou encore et le nom du ministre russe Sergey Lavrov traduit par « sad little horse ».

Cela s’explique par la façon dont fonctionne les réseaux neuronaux avec les données. Bien que ces erreurs singulières aont été remarquées et corrigées - imaginez le nombre d'erreurs qui passeront inaperçues et ne seront pas corrigées.

Problème n°3 : une personnalisation qui va trop loin

Avec l’IA qui est déjà utilisée pour diffuser des annonces pub Google, il est clair que les résultats de recherche seront personnalisés plus fortement au fil du temps. Ainsi, chaque visiteur aura des résultats de recherche basés sur ses requêtes de recherche précédentes, à côté de son âge, sexe, de son revenu et en fonction de toutes les autres informations collectées par Google. Conséquences : les classements seront encore plus fonction de la personnalité de l'utilisateur, et non plus comme aujourd’hui avec des résultats de recherche pertinents basés sur une requête particulière.

Le SEO dans un monde post-algorithmique

Dans ce monde post-algorithmique, il sera impossible de créer des liens ou d’optimiser des pages afin de manipuler les résultats de recherche (le spamdexing). Justement, cela signera sans doute encore plus la fin des SEO black hat, ceux qui tentent de truquer des pages pour les faire indexer tout en haut des résultats de recherche.

Même l’expression «SEO-friendly » est amenée à disparaître. Au lieu de cela, la seule chose qui nous restera est la notion d « user friendly ». Pour les SEO white hat, c’est un futur tout aussi excitant et flippant qu’un saut dans l’inconnu.


Pour survivre, les experts SEO (ou ce qu’il en reste) devront s’adapter. Ils devront adopter des méthodes moins techniques, tels que le content marketing, les réseaux sociaux et la publicité en ligne. Et ce sera la fin du SEO que nous connaissons. 
lead-enrichir-25000
Poster un commentaire