Quand les algorithmes biaisent notre vision du monde

Les rĂ©seaux sociaux et leurs algorithmes sont-ils les ennemis de lâhomme ? A voir la façon dont nos visites et actions sur ces supports sont interprĂ©tĂ©s et utilisĂ©s, on peut se le demander.
Lorsquâon clique sur un lien plutĂŽt quâun autre, le contenu que de nombreux sites vont nous montrer par la suite sera altĂ©rĂ©. Les algorithmes utilisĂ©s par des rĂ©seaux sociaux comme Facebook apprennent de nos prĂ©fĂ©rences, et fournissent de plus en plus de contenu calibrĂ© selon ces intĂ©rĂȘts⊠Au risque de ne plus rien montrer de contraire Ă nos opinions, et de dĂ©former notre vision du monde. «En triant de plus en plus finement ce que vous allez voir, ces algorithmes distordent la rĂ©alitĂ©. Les rĂ©seaux sociaux deviennent alors des caisses de rĂ©sonance oĂč les opinions tendent vers lâextrĂȘme», explique Elisa Celis, chercheuse Ă la facultĂ© Informatique et Communication de lâEPFL.
Des algorithmes qui façonnent votre opinion
Et lâimpact sur le lecteur est bien rĂ©el. «De nombreuses Ă©tudes ont montrĂ© que si vous ĂȘtes indĂ©cis, lâordre dans lequel on vous montre une information et sa frĂ©quence de rĂ©pĂ©tition vont vous influencer. Ces algorithmes vont donc façonner votre opinion Ă partir de donnĂ©es biaisĂ©es», poursuit Elisa Celis. Pour rĂ©pondre Ă ce problĂšme, la chercheuse a travaillĂ© avec Nisheeth Vishnoi, professeur Ă lâEPFL, pour dĂ©velopper un systĂšme qui empĂȘche la polarisation Ă lâextrĂȘme du contenu proposĂ© aux utilisateurs.
ConcrĂštement, ils ont conçu un algorithme qui peut ĂȘtre rĂ©glĂ© pour fixer un taux de diversification minimum du contenu. «Un rĂ©seau social pourrait choisir de prĂ©senter au moins 10% de points de vue opposĂ©s Ă ses utilisateurs, par exemple, afin de garder une vision du monde plus Ă©quilibrĂ©e», expliquent les chercheurs.
Lâalgorithme pourrait facilement ĂȘtre intĂ©grĂ© dans les systĂšmes actuels. Le plus gros dĂ©fi Ă©tant inciter les grandes entreprises Ă sây intĂ©resser. «Des plateformes comme Facebook dĂ©pendent de lâefficacitĂ© de ces algorithmes pour leurs revenus publicitaires : nous voulions donc dĂ©montrer quâil est possible de crĂ©er un outil tout aussi efficace, mais qui permette une personnalisation Ă©quilibrĂ©e et Ă©quitable», indique Nisheeth Vishnoi.
âEn tant que citoyen, je me sens impuissant.
Sensibiliser les gouvernements Ă cette problĂ©matique serait un facteur important pour combler lâactuel vide lĂ©gislatif qui entoure encore ce domaine. Plusieurs organisations de dĂ©fense des droits de lâhomme ont dĂ©jĂ montrĂ© leur intĂ©rĂȘt, et les chercheurs de lâEPFL ont pu rĂ©cemment prĂ©senter leur projet devant des dĂ©lĂ©guĂ©s dâorganisations humanitaires Ă GenĂšve, y compris des membres du Haut-Commissariat des Nations unies aux droits de lâhomme.
«Aujourdâhui, aucune rĂ©gulation nâexiste, car lâimpact de ces biais introduits par les algorithmes est encore mal connu. En tant que citoyen, je me sens impuissant, car je nâai aucun contrĂŽle sur ce qui mâest prĂ©sentĂ©. Jâestime que la situation actuelle est dangereuse pour la dĂ©mocratie et quâil est essentiel de trouver des alternatives», conclut Nisheeth Vishnoi.