Transparence des algorithmes

Appréhender le fonctionnement et les biais des algorithmes.
#critères
De plus en plus de services utilisent des algorithmes pour présélectionner les informations qui vous sont présentées. Il est essentiel de savoir comment ces algorithmes sont conçus, avec quelles données, comment ils prennent leurs décisions et quels biais ils peuvent avoir.

  • Le code source (la “recette de fabrication”) est-il accessible ?
  • Y a-t-il des informations sur le fonctionnement de ces algorithmes ?
  • L’usage qui est fait des données est-il explicite et facile à comprendre ?

Aller plus loin

Les algorithmes affectent les articles ou billets que nous voyons dans les fils d’information de nos réseaux sociaux, et nous ne savons pas quelle information nourrit ces algorithmes ; ni comment ces algorithmes et leurs interfaces sont conçus pour manipuler notre interaction avec le service.

On classe les algorithmes en deux catégories : les algorithmes auto-apprenants et les autres. Les premiers (on parlera également d’« intelligence artificielle », de « machine learning » ou de « deep learning ») fonctionnent avec une phase d’apprentissage préalable. Dans un premier temps, l’algorithme auto-apprenant s’entraîne sur un jeu de données dont le résultat attendu est connu (par exemple : « cette image est un chaton » ou « cette image n’est pas un chaton ») et s’adapte en comparant ses résultats à ceux attendus. Une fois cette phase terminée, il est utilisé alors que le résultat attendu n’est pas connu (dans notre exemple, il sera censé distinguer les images de chatons des autres). Le résultat d’un algorithme auto-apprenant n’est pas reproductible puisqu’il dépendra de la phase d’apprentissage et de la qualité du jeu de données initial. Les autres algorithmes, ceux qui ne sont pas auto-apprenants, ont un résultat reproductible puisqu’il ne reposent pas sur une phase préalable d’apprentissage.

Biais possibles des algorithmes

  • désinformations
  • manipulation politique
  • l’addiction aux services web
  • les biais racistes
  • révélation indirecte d’informations personnelles
  • clash
  • depressions
  • suicides
  • cyberharcelement

Ressources complémentaires

Recevez nos actualités.
Dernières nouvelles du projet, mise à jour de la ressource en ligne,dates des prochains webinaires. (1250 abonnés).
icon

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.