Google veut classer les sites internet selon la fiabilité de leur contenu et non selon leur popularité grâce à « Knowledge Vault »

Google-veut-classer-les-sites-internet-selon-la-fiabilité-de-leur-contenu-et-non-selon-leur-popularité-grâce-à-«-Knowledge-Vault
 
Google ne semble pas satisfait de son célèbre logiciel Page Rank qui décide de l’ordre d’apparition des pages ou site Web selon, entre autres, le nombre de liens menant vers ces pages : il ne fournit pas la garantie d’offrir aux utilisateurs des informations fiables et pertinentes. De nombreux sites qui s’affichent en tête de recherche sont truffés d’erreurs ou de fausses informations.
 

Classer les sites internet en fonction de leur fiabilité

 
Une équipe de recherche de Google travaille donc à modifier l’algorithme de son Page Rank et chercher à classer les informations en mesurant la crédibilité d’une page à partir de sa base de données « Knowledge Vault », et non plus selon sa réputation sur le Web.
 

Google veut se fier à sa base de données « Knowledge Vault » pour détecter les informations inexactes

 
Au lieu de dénombrer le nombre de liens entrants, le système comptera le nombre d’informations incorrectes au sein de la page. Une source contenant peu de données erronées – à l’aune de cette base – pourra être classée comme « crédible ». Mais c’est Google qui décide…
 
Google exploitera à cette fin une grosse base de données intitulée « Knowledge Vault », capable de s’alimenter de façon automatique et autonome, sans intervention humaine contrairement aux bases de connaissances actuelles mises à jour de façon manuelle.
 

Un logiciel évaluera la « fiabilité » de l’information à la place de l’homme

 
S’il n’y a aucune intervention humaine dans la vérification directe des informations, il y en a une dans la conception du logiciel : qui nommera les personnes chargées d’y intégrer les informations jugées exactes ? Un gouvernement intéressé idéologiquement ou des entreprises intéressées économiquement ?
 
Par ailleurs, l’absence d’intervention humaine dans la vérification mènera inévitablement à de la triche : les rédacteurs trouveront tôt ou tard le moyen de tromper l’algorithme.
 
Mais le changement est significatif : ce ne sont plus les utilisateurs qui décideront de la fiabilité des pages internet mais un logiciel fabriqué pour déceler la vérité…
 
Le procédé permettra de classer un mensonge parmi les informations vérifiées, et de le répéter : il deviendra rapidement une « vérité » inattaquable…