Toujours sur la trace des algorithmes racistes et sexistes de Google

J’ai déjà traité sur ce blog la question du biais cognitif représenté par les résultats de recherche, tellement sujets à caution,  de Google. Ainsi, l’exemple donné dans cet ancien article selon lequel quand on posait à ce célèbre moteur de recherche la question : « L’holocauste a-t-il eu lieu ? » apparaissait en premier un site néo-nazi (Stormfront) qui publiait un article  intitulé : « Les 10 meilleures raisons pour lesquelles l’holocauste n’a jamais eu lieu. » (vous pouvez cliquer tranquillement sur le lien précédent : il pointe vers un article du Guardian qui raconte l’histoire, pas vers le site néo-nazi, qui d’ailleurs n’existe plus, et c’est très bien ainsi).

Tantôt les premières pages de recherche de Google donnent la prédominance à des sites racistes, complotistes et remplis de désinformation, comme je l’ai encore récemment observé à propos de l’antisémitisme de Michel Collon, où les résultats de recherche sont éhontément biaisés. (Google a bien cherché à résoudre ce problème depuis mes dernières réflexions en modifiant ses algorithmes, mais il est encore extrêmement persistant et les exemples ne manqueront pas pour le démontrer… ). Tantôt ces résultats privilégient les intérêts financiers de Google et des sociétés américaines partenaires, au point que la commission européenne elle-même s’en émeuve (voir ici).

L’explication réside en partie dans le fait que l’intelligence artificielle reproduit les tares de ses concepteurs… Par projection, même leurs algorithmes sont porteurs d’une logique  de discrimination, racistes, sexiste ou/et religieuse qui conditionne fortement les résultats de recherche des différents moteurs, dont Google. Et peut-être même encore plus lui, précisément, dont la vocation financière est inscrite dans ses gênes… Certaines « erreurs » sont pourtant plus que choquantes et relèvent de grossiers clichés racistes les plus éculés. Mais l’explication est aussi à rechercher dans le fait que Google n’est ni une entreprise philanthropique, ni une entreprise éthique, comme la grève actuelle de ses personnels est là pour le souligner.  Et à partir du moment où l’on peut acheter une place de choix dans ces fameux résultats de recherche, tout le monde ne bénéficie donc pas d’une égalité de traitement et de visibilité, quelle que soit la qualité de ses publications par ailleurs,  dans la recherche d’information visible du grand public…

Aussi ai-je lu avec intérêt cet article de Libé relatant l’interview de Safiya Umoja Noble,bien plus qualifiée que moi pour traiter de ce sujet :

CaptureCapture2

… Son avis est d’autant plus intéressant que Safiya Umoja Noble sait précisément de quoi elle parle.  Ses recherches s’orientent sur le biais de genre, le racisme et les nouvelles technologies. Elle est l’autrice de l’ouvrage Algorithmes of Oppression.  L’auteure s’intéresse à la manière dont les préjugés contre les personnes de couleur sont intégrés dans les moteurs de recherche. Le livre explore comment le racisme est créé et maintenu par Internet.

Ses travaux universitaires portent en outre la préoccupation  du fait que l’enseignement STEM n’engage pas les futurs développeurs dans le domaine de l’éthique, ce qui aboutit à des spécialistes des données et des ingénieurs qui ne tiennent pas compte des droits civils ou humains

(source)

De cet interview, qui est à lire en entier pour mieux comprendre le contexte du travail de cette chercheuse, j’ai retiré cet extrait, à toute fin d’édification des masses laborieuses, dont je suis, en forme de dernier mot (forcément provisoire) de l’histoire de la critique des zinternets 😉  :

Capture.PNG

 

Laisser un commentaire

Choisissez une méthode de connexion pour poster votre commentaire:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s