- Le code source (la « recette de fabrication ») est-il accessible ?
- Y a-t-il des informations sur le fonctionnement de ces algorithmes ?
- L’usage qui est fait des données est-il explicite et facile à comprendre ?
Aller plus loin
Les algorithmes affectent les articles ou billets que nous voyons dans les fils d’information de nos réseaux sociaux, et nous ne savons pas quelle information nourrit ces algorithmes ; ni comment ces algorithmes et leurs interfaces sont conçus pour manipuler notre interaction avec le service.
On classe les algorithmes en deux catégories : les algorithmes auto-apprenants et les autres. Les premiers (on parlera également d’« intelligence artificielle », de « machine learning » ou de « deep learning ») fonctionnent avec une phase d’apprentissage préalable. Dans un premier temps, l’algorithme auto-apprenant s’entraîne sur un jeu de données dont le résultat attendu est connu (par exemple : « cette image est un chaton » ou « cette image n’est pas un chaton ») et s’adapte en comparant ses résultats à ceux attendus. Une fois cette phase terminée, il est utilisé alors que le résultat attendu n’est pas connu (dans notre exemple, il sera censé distinguer les images de chatons des autres). Le résultat d’un algorithme auto-apprenant n’est pas reproductible puisqu’il dépendra de la phase d’apprentissage et de la qualité du jeu de données initial. Les autres algorithmes, ceux qui ne sont pas auto-apprenants, ont un résultat reproductible puisqu’il ne reposent pas sur une phase préalable d’apprentissage.
Biais possibles des algorithmes
- désinformations
- manipulation politique
- l’addiction aux services web
- les biais racistes
- révélation indirecte d’informations personnelles
- clash
- depressions
- suicides
- cyberharcelement
Ressources complémentaires
- À travers ses algorithmes Twitter décide de ce que vous voyez https://framablog.org/2018/09/17/bye-bye-twitter-hello-masto/
- La société des boîtes noires s’étend : https://www.internetactu.net/a-lire-ailleurs/la-societe-des-boites-noires-setend/
- La seconde vague de la responsabilité algorithmique : https://www.internetactu.net/a-lire-ailleurs/la-seconde-vague-de-la-responsabilite-algorithmique/
- En 2 mois, Google a licencié ses deux co-directrices de l’éthique des IA, Timnit Gebru et Margarett Mitchell. Pendant ce temps, Google a aussi développé, et probablement bientôt déployé, des algorithmes entraînés sur d’immenses quantités de données non-sécurisées, de manière extrêmement opaque, ce qui avait été critiqué par les deux co-directrices dans un article de recherche. https://www.youtube.com/watch?v=HbFadtOxs4k
- L’arnaque des algorithmes d’aide à la prise de décision : https://www.laquadrature.net/2021/01/31/larnaque-des-algorithmes-daide-a-la-prise-de-decision/
- AlgorithmWatch is a non-profit research and advocacy organization that is committed to watch, unpack and analyze automated decision-making (ADM) systems and their impact on society : https://algorithmwatch.org/