C’est le joker brandi à chaque question qui fâche sur l’IA militaire. Et si l’outil cible la mauvaise personne ? Conseille une riposte disproportionnée ? “Il y aura un humain dans la boucle”, répètent, rassurants, les promoteurs de ces solutions. En anglais, on parle de human in the loop ou HITL. “Concrètement, cela signifie que chaque décision préconisée par une intelligence artificielle doit être approuvée par un être humain avant d’être mise en œuvre”, explique Giacomo Persi Paoli, responsable du programme sécurité et technologie à l’Unidir, l’Institut des Nations unies pour la recherche sur le désarmement. La présence d’un être de chair et d’os est présentée comme un remède simple à tous les maux de l’IA. En pratique, c’est un peu plus compliqué.
“Il apparaît normal que le choix d’une frappe soit pris par un humain dans des zones où se trouvent des humains. Mais s’il s’agit de détruire un drone ou une machine ennemie, automatiser la réaction peut s’avérer la solution la plus rapide, donc la plus protectrice”, pointe Florian Fournier, cofondateur et PDG d’Orasio, spécialiste de la vidéo intelligence qui fournit des collectivités, des forces de sécurité intérieure et des armées européennes. De fait, les systèmes de défense antiaérienne n’attendent pas toujours l’approbation de l’opérateur de service pour détruire des missiles fonçant à plusieurs kilomètres par seconde, et c’est heureux.
.

Leave a Reply