En 1987, Robert Solow, économiste américain lauréat du prix Nobel, formulait un constat devenu célèbre : “Vous pouvez voir l’ère informatique partout, sauf dans les statistiques de la productivité.” Quarante ans plus tard, en remplaçant “informatique” par “IA générative”, le paradoxe n’a pas pris une ride. En dépit du bruit médiatique autour de cette technologie depuis plus de trois ans et la sortie de ChatGPT, les résultats tangibles sur l’économie tardent à se concrétiser. Fin février, une gigantesque enquête du National Bureau of Economic Research, menée auprès de 6 000 dirigeants d’entreprises aux Etats-Unis, en Europe et en Australie, concluait que près de neuf entreprises sur dix n’observaient aucun impact perceptible de l’IA générative sur leur emploi ou leur productivité sur les trois dernières années. Le chiffre fait écho à celui du MIT, qui avait défrayé la chronique l’été dernier en affirmant que 95 % des projets associés en entreprise échouaient à délivrer un retour sur investissement.
Ces derniers mois, L’Express a rencontré plusieurs “grands comptes”, ces sociétés de premier plan de l’Hexagone comme Air France, Total, Axa… Des fleurons du CAC40 dont une partie dispose de bureaux donnant sur la dalle venteuse du quartier d’affaires La Défense. Tous l’admettent : malgré de fortes ambitions et des investissements dépassant parfois les six chiffres, la réalité du terrain est autrement plus modeste. La première difficulté concerne la donnée. L’IA générative repose sur des modèles de langage (LLM), très habiles pour fouiller dans des masses importantes d’informations. Or, si celles-ci sont incomplètes ou éparpillées aux quatre coins de l’entreprise, le résultat sera médiocre. C’est précisément le quotidien de la plupart des grands groupes. Contrairement aux start-up, qui construisent leurs bases de données sur des architectures modernes, ces derniers traînent des décennies de systèmes qui communiquent difficilement, comme un logiciel de comptabilité âgé de 30 ans avec un outil de marketing dernier cri. Les professionnels ont du jargon pour ces problèmes. Les “silos” de données cloisonnées, et le “legacy”, désignant ces systèmes informatiques qui s’empilent depuis plusieurs dizaines d’années.
Au sein de la banque LCL, Didier Lellouche, responsable de l’intelligence artificielle, évoque ainsi son “cimetière des POC” : ces preuves de concept, courantes dans les entreprises, qui permettent de tester la technologie sur des cas d’usage. “Dès lors qu’on voulait intégrer un projet d’IA générative dans le système d’information, ça ne marchait plus. Trop compliqué, trop coûteux.” Les tarifs de l’inférence – le fonctionnement de l’IA, facturé par unité de texte appelé token – sont encore trop “opaques” en fonction de leurs besoins, font entendre des interrogés. A Bpifrance, Lionel Chaine, directeur des systèmes d’information de la banque d’investissement, fournit un ratio édifiant : sur 240 tests d’utilisation de l’IA générative, seuls 17 ont finalement été mis en production. “Tout le monde est en train d’apprendre, ajoute-t-il. Et cette fois, malheureusement, on ne peut pas acheter l’expérience des cabinets de conseil afin de nous guider.” Ghislain de Pierrefeu, consultant chez l’un d’eux, le français Wavestone qui a accompagné plusieurs de ces “grands comptes” dans leur transformation, abonde : “Il y a un vrai décalage entre le discours ambiant – l’idée que l’IA générative change le monde – et la réalité des gains. Tout le monde galère.” Un responsable d’une grande entreprise va plus loin : “L’IA générative est survendue.”
.








