Le moteur de recherche cible ses publicités en fonction de la couleur de peau, affirme une étude américaine.
Google et ses précieux algorithmes ont un seul but: rendre nos recherches plus pertinentes. Pour y parvenir, le géant du Net récolte d’une part nos informations personnelles et compile d’autre part des milliards de requêtes pour en dégager les tendances les plus populaires.
Cette course au résultat populaire, si elle est statistiquement pertinente, agit parfois comme un révélateur des préjugés les plus tordus des internautes. Les suggestions de recherche «est-il juif?» ou «est-il gay?» induites par Google après avoir tapé le nom de certains politiciens ou célébrités en sont un exemple.
Une étude publiée fin janvier par la professeure Latanya Sweeney de l’Université de Harward souligne que les préjugés racistes s’appliquent aussi aux publicités affichées avec chaque recherche. Elles varient de manière significative en fonction de critères raciaux. Selon l’universitaire, la recherche de patronymes connotés «afro-américains», comme Leroy, Kareem Keisha ou Kenya, entraîne plus souvent des annonces en lien avec la criminalité et le monde judiciaire. Typiquement des services pour savoir si une personne a déjà été arrêtée ou si elle possède un casier.
La proportion est de 25% contre 1% avec des noms connotés «blancs», tels que Brad, Luke ou Katie, rapporte le site de la BBC. (…)
La tribune de Genève