Comment ils s'exercent
Les algorithmes fonctionnent sur la reconnaissance de motifs (patterns), de mots-clés, de formes ou de combinaisons d'images. Ils comparent le contenu soumis à des bases de données de contenus prohibés (empreintes numériques d'images pédopornographiques, listes de termes haineux, etc.). C'est un processus binaire : une correspondance est trouvée, le contenu est signalé, souvent supprimé ou censuré, en limitant ou en omettant le contexte humain et l'intention.
Les malentendus et les dégâts humains
C'est dans l'interprétation du contexte que ces systèmes révèlent leurs failles.
Le faux-positif : Une image innocente (un bout de corps d'enfant dans un contexte familial, un tableau d'art) est catégorisée à tort dans la section la plus grave (exploitation sexuelle des enfants), causant une blessure profonde à la dignité de l'utilisateur légitime, traité comme un contrevenant.
L'amputation du sens : La détection de mots-clés sexuellement connotés (même utilisés pour dénoncer un fait de société ou un crime, comme dans le cas du reportage sur le violeur) entraîne la censure d'informations cruciales, transformant un travail d'enquête en un texte édulcoré et incomplet.
Les dangers pour la liberté et l'information
Cette dépendance aux robots pour la modération représente trois menaces majeures :
Censure et liberté d'expression : Si le contexte ne compte pas, la satire, l'art, le témoignage historique ou la dénonciation peuvent être facilement balayés. Les algorithmes deviennent les gardiens de l'acceptable, imposant une vision standardisée du monde et réduisant la marge de manœuvre de l'expression.
Véracité de l'information : En censurant les termes précis décrivant des événements graves, les plateformes nuisent à la qualité et à la véracité du récit. L'information devient incomplète et peut même perdre de son pouvoir d'alerte.
Le pouvoir non démocratique : Ces systèmes sont développés par des entreprises privées, souvent sans réelle consultation publique. Ils exercent une forme de contrôle éditorial sur le discours mondial, une « dictature » technique qui prime sur le jugement humain, la nuance et les lois locales.
En fin de compte, la modération algorithmique est un outil essentiel pour lutter contre les pires abus, mais sans une supervision humaine robuste et un droit de recours équitable, elle menace de devenir un obstacle majeur à la liberté de partager la complexité du réel.