You are currently viewing Algorithmes voyeurs : le développement massif du ciblage publicitaire contextuel
crédit image : futurama-sciences

Algorithmes voyeurs : le développement massif du ciblage publicitaire contextuel


La publicité ciblée rend les algorithmes de référencement contextuel particulièrement rentables, bien que les éditeurs des pages visitées en profitent de moins en moins.

  • Le principe du référencement contextuel des pages web

Les “crawlers” sont des algorithmes qui parcourent le web en permanence. Ils consultent des millions de pages par jour, et les référencent en fonction de leur contenu.

En plus des mots, certains crawlers reconnaissent maintenant le sens des phrases (ciblage sémantique), le contenu des images (ciblage visuel), et même le contenu des vidéos  (ciblage multimédia) présentes sur une page.

 Si le principe n’est pas nouveau – il est à la base des moteurs de recherche comme Google ou Safari – ce perfectionnement est aujourd’hui une mine d’or pour le secteur de la publicité ciblée.

 

  • L’explosion du marché du ciblage publicitaire contextuel

Imaginons que vous vendiez des articles de sport, et lanciez une publicité sur le net. Combien seriez-vous prêts à payer en plus pour qu’elle apparaisse sur une page dédiée au fitness, plutôt que sur une page dédiée à la lecture ?

Cette recherche de précision entraine naturellement une valorisation des données de référencement contextuel. Leur usage est par ailleurs en passe de s’accroître, du fait des évolutions législatives sur le ciblage individuel, et de la fin annoncée des cookies tiers.

 

  • L’exclusion progressive des éditeurs web de ce modèle économique

Il est de coutume que les grands éditeurs de page web et les opérateurs de crawlers  travaillent main dans la main. En échange d’une contrepartie, les éditeurs donnent un accès complet aux crawlers et facilitent la constitution de ces précieuses bases de données.

Or, leur perfectionnement permet aujourd’hui aux crawlers d’être plus indépendants. Sans accord de l’éditeur, ils se font passer pour des humains et parcourent les pages en libre accès pour les catégoriser. Leurs opérateurs revendent ensuite les index créés, excluant les éditeurs du processus.

Faute de texte encadrant la pratique, les éditeurs se tournent maintenant vers des solutions techniques. On risque donc de voir se multiplier les outils bloquant les accès automatisés, comme le Captcha, ou des logiciels spécialisés comme Imperva.

 

A propos de Martin Deloy