L’essor inquiétant des IA comme arbitres de l’information, par Gérald Bronner

Dans un livre paru en 2013, La démocratie des crédules (PUF), j’avais eu l’occasion de souligner combien le biais de confirmation – la tendance à rechercher, interpréter et retenir prioritairement les informations qui vont dans le sens de nos croyances préalables – avait été amplifié par l’apparition d’Internet. Cet invariant de l’esprit humain – repéré déjà en son temps par Francis Bacon et mis en exergue expérimental en 1960 par le psychologue Peter Wason – se trouve être complété par son symétrique en quelque sorte, qui est de nature à fracturer un peu plus l’espace commun nécessaire à nos démocraties.

C’est ce que montre, en partie, une étude récente signée par Thomas Renault, Mohsen Mosleh et David G. Rand qui se situe au croisement des sciences sociales computationnelles et de l’analyse des comportements informationnels. Elle convoque la façon dont les IA sont questionnées sur le réseau X. On a beaucoup insisté sur les capacités génératives des grands modèles de langage : rédiger, résumer, traduire, coder. Mais une autre fonction est en train de s’imposer, politiquement plus sensible : celle d’outil de vérification de l’information. Les LLM (grands modèles de langage) deviennent de plus en plus des arbitres auxquels les usagers demandent de trancher le vrai du faux dans le flux des réseaux sociaux.

.

Source link

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *