Si les algos de recommandation sont les biais cognitifs de l'humanité, en faut-il de nouveaux ? | Rencontres de l'esprit critique
Depuis plus d'une décennie, notre attention est sous le contrôle d’hashtag#algorithmes dangereux pour l’humanité et nous regardons ailleurs.
À chaque seconde, des intelligences artificielles ultra sophistiquées choisissent quels messages, images ou vidéos nous allons regarder.
Mais leur unique objectif est de capter le maximum de notre temps de cerveau disponible pour en tirer le plus grand profit au mépris de conséquences individuelles et sociétales désormais bien identifiées : isolement, utilisation compulsive des réseaux sociaux, dégradation de la santé mentale, cyberharcèlement de masse, polarisation politique, guerre de l’information, appels à la haine...
À l’aide d’exemples concrets, Jean-Lou Fourquet explique en quoi ces IA de recommandations, aujourd’hui contrôlées par des multinationales ou des État autoritaires, ont gravement fragilisé nos hashtag#démocraties et les droits humains.
Il évoque les limites d'une approche uniquement "esprit critique individuel" et explique comment faire pour essayer de faire la promotion d'un "esprit critique à l'échelle de nos systèmes informationnels".
Si les algos de recommandation sont les biais cognitifs de l'humanité, en faut-il de nouveaux ?