Quand les algorithmes biaisent notre vision du monde

Sur les rĂ©seaux sociaux, ce sont les algorithmes qui personnalisent le contenu que nous lisons, au risque de proposer un point de vue toujours plus rĂ©duit et extrĂȘme. Des chercheurs de l’EPFL ont dĂ©veloppĂ© une solution qui permettrait une personnalisation Ă©quilibrĂ©e.

Les rĂ©seaux sociaux et leurs algorithmes sont-ils les ennemis de l’homme ? A voir la façon dont nos visites et actions sur ces supports sont interprĂ©tĂ©s et utilisĂ©s, on peut se le demander.

Lorsqu’on clique sur un lien plutĂŽt qu’un autre, le contenu que de nombreux sites vont nous montrer par la suite sera altĂ©rĂ©. Les algorithmes utilisĂ©s par des rĂ©seaux sociaux comme Facebook apprennent de nos prĂ©fĂ©rences, et fournissent de plus en plus de contenu calibrĂ© selon ces intĂ©rĂȘts
 Au risque de ne plus rien montrer de contraire Ă  nos opinions, et de dĂ©former notre vision du monde. «En triant de plus en plus finement ce que vous allez voir, ces algorithmes distordent la rĂ©alitĂ©. Les rĂ©seaux sociaux deviennent alors des caisses de rĂ©sonance oĂč les opinions tendent vers l’extrĂȘme», explique Elisa Celis, chercheuse Ă  la facultĂ© Informatique et Communication de l’EPFL.

Des algorithmes qui façonnent votre opinion

Et l’impact sur le lecteur est bien rĂ©el. «De nombreuses Ă©tudes ont montrĂ© que si vous ĂȘtes indĂ©cis, l’ordre dans lequel on vous montre une information et sa frĂ©quence de rĂ©pĂ©tition vont vous influencer. Ces algorithmes vont donc façonner votre opinion Ă  partir de donnĂ©es biaisĂ©es», poursuit Elisa Celis. Pour rĂ©pondre Ă  ce problĂšme, la chercheuse a travaillĂ© avec Nisheeth Vishnoi, professeur Ă  l’EPFL, pour dĂ©velopper un systĂšme qui empĂȘche la polarisation Ă  l’extrĂȘme du contenu proposĂ© aux utilisateurs.

ConcrĂštement, ils ont conçu un algorithme qui peut ĂȘtre rĂ©glĂ© pour fixer un taux de diversification minimum du contenu. «Un rĂ©seau social pourrait choisir de prĂ©senter au moins 10% de points de vue opposĂ©s Ă  ses utilisateurs, par exemple, afin de garder une vision du monde plus Ă©quilibrĂ©e», expliquent les chercheurs.

L’algorithme pourrait facilement ĂȘtre intĂ©grĂ© dans les systĂšmes actuels. Le plus gros dĂ©fi Ă©tant inciter les grandes entreprises Ă  s’y intĂ©resser. «Des plateformes comme Facebook dĂ©pendent de l’efficacitĂ© de ces algorithmes pour leurs revenus publicitaires : nous voulions donc dĂ©montrer qu’il est possible de crĂ©er un outil tout aussi efficace, mais qui permette une personnalisation Ă©quilibrĂ©e et Ă©quitable», indique Nisheeth Vishnoi.

“En tant que citoyen, je me sens impuissant.

Sensibiliser les gouvernements Ă  cette problĂ©matique serait un facteur important pour combler l’actuel vide lĂ©gislatif qui entoure encore ce domaine. Plusieurs organisations de dĂ©fense des droits de l’homme ont dĂ©jĂ  montrĂ© leur intĂ©rĂȘt, et les chercheurs de l’EPFL ont pu rĂ©cemment prĂ©senter leur projet devant des dĂ©lĂ©guĂ©s d’organisations humanitaires Ă  GenĂšve, y compris des membres du Haut-Commissariat des Nations unies aux droits de l’homme.

«Aujourd’hui, aucune rĂ©gulation n’existe, car l’impact de ces biais introduits par les algorithmes est encore mal connu. En tant que citoyen, je me sens impuissant, car je n’ai aucun contrĂŽle sur ce qui m’est prĂ©sentĂ©. J’estime que la situation actuelle est dangereuse pour la dĂ©mocratie et qu’il est essentiel de trouver des alternatives», conclut Nisheeth Vishnoi.