IA Générative : la grande illusion industrielle ?
Ou quand automatiser coûte plus cher que créer.
C’est censé être la prochaine grande rupture. Une révolution industrielle en mode logiciel. L’intelligence artificielle générative (GenAI), propulsée par des modèles de langage toujours plus puissants, allait rationaliser les organisations, faire fondre les coûts, supprimer les tâches répétitives, et donner naissance à une nouvelle ère de productivité.
À grands renforts d’annonces, de licenciements “stratégiques” et d’investissements massifs, les entreprises les plus visibles ont montré l’exemple : remplacer des postes entiers par des algorithmes, intégrer des assistants automatisés dans chaque recoin des workflows, accélérer sans se retourner. Klarna fut un exemple criant, mais c’était loin d’être le seul. Et pourtant, à peine un an plus tard, le constat est d’une ironie cuisante : ce sont souvent ces mêmes entreprises qui se retrouvent à recruter de nouveau... pour faire fonctionner l’IA qu’elles ont déployée. Ben voyons.
La GenAI est remplie d’erreurs !
En fait, ce retour en arrière n’est pas marginal ni anecdotique. Il se produit à bas bruit, dans tous les secteurs (enfin plus ou moins), sous des intitulés de poste revisités : spécialiste en prompt engineering, auditeur de sorties IA, superviseur humain de l’automatisation. De nouveaux métiers, en somme. Des fonctions créées non pas pour innover, mais pour sécuriser, contrôler, et surtout corriger les lacunes des systèmes qui, au départ, devaient faire gagner en autonomie. L’automatisation rêvée est devenue surveillance continue.

Bon en fait, les raisons de ce revirement ne sont pas mystérieuses. En coulisses, les modèles d’IA montrent un certain nombre de limites structurelles. Malgré des apparences spectaculaires lors des démonstrations publiques, les résultats obtenus en conditions réelles restent…plutôt fragiles. Une part significative des réponses générées est imprécise, hors sujet, voire totalement erronée. Pire encore : ces erreurs sont souvent difficilement détectables par des non-experts. Le risque n’est donc pas seulement opérationnel, mais aussi éthique, juridique et réputationnel. Je forme des étudiants en commerce qui - pour les moins malins - m’avouent “j’ai déjà préparé un devoir maison à 100% avec ChatGPT et j’ai eu 4/20”. Bon en même temps, ChatGPT est probablement un peu con mais encore faut-il savoir l’utiliser correctement.
Des humains pour…automatiser ?
Dans cette configuration, il devient impératif de remettre l’humain dans la boucle. Mais il ne s’agit plus ici d’un accompagnement passif. Les personnes recrutées doivent comprendre, analyser, filtrer, reformuler, alerter. L’automatisation censée alléger le travail a produit de nouvelles strates de complexité. Et avec elles, un surcoût silencieux mais bien réel : plus de contrôle, plus de formation, plus de coordination. Résultat : les économies attendues ne se matérialisent pas. Elles se transforment en dettes cachées. Finalement, ce qui était censé économiser de l’argent nécessite qu’on investisse davantage dans des ressources durables…le serpent se mord la queue.
Un autre phénomène alimente cette spirale : la réponse à l’imprécision de l’IA... c’est parfois encore plus d’IA. Des couches sont ajoutées pour valider, reformuler ou corriger les productions des couches précédentes. Cette architecture empilée donne naissance à des systèmes opaques, instables et énergivores, où chaque niveau devient dépendant des défaillances du précédent. Une logique sans fin, avec un serpent qui s’est tellement bouffé la queue qu’il ne sait plus quoi mordre.
Les investisseurs ont aussi des doutes sur l’IA
Pendant ce temps, le marché continue de s’enflammer. Comme toujours face à des révolutions technologiques. Les start-up de l’IA lèvent des montants astronomiques, les levées se succèdent à un rythme frénétique, et les valorisations s’envolent sur la base d’hypothèses plus spéculatives que concrètes. Les méga-levées se succèdent même : Databricks en Série J à 15 Mds$ de levés (est-ce que la Série J représente la nouvelle forme d’IPO ?) ou encore OpenAI qui cherche à lever 40 Mds$ au moment où j’écris ces lignes…alors même qu’ils ne sont pas encore rentables (mais ça c’est un autre débat). Derrière l’effervescence médiatique, un doute commence pourtant à s’installer chez certains investisseurs. Beaucoup de solutions sont testées avec curiosité, mais peu sont réellement adoptées à grande échelle. Les promesses ne se transforment pas systématiquement en traction. Et les perspectives de rentabilité long terme restent floues pour bon nombre d’acteurs. Moi-même, j’ai déjà testé des outils d’IA avec paiement sans engagement sur la durée avant de me rendre compte que l’outil était semi-merdique ou qu’il ne me servirait à rien…la difficulté est de faire le tri, mais les investisseurs craignent que certaines entreprises d’IA aient une croissance limitée qui atteigne rapidement un plateau.
Ce moment d’ajustement n’est pas sans rappeler les premières bulles technologiques, où l’enthousiasme initial cède la place à une phase de tri naturel. Les projets conçus sans vision produit claire, ou sans besoin réel bien identifié, risquent de disparaître aussi vite qu’ils sont apparus. Ceux qui survivront seront ceux qui auront compris une chose simple : l’IA ne peut pas remplacer tout. Certainement pas la confiance. Ni le discernement. Ni la responsabilité.
La véritable rupture ne viendra peut-être pas de ceux qui auront couru les premiers vers l’automatisation à tout prix, mais de ceux qui auront intégré l’IA de manière réfléchie, comme un levier complémentaire, un partenaire technique, et non comme un substitut magique. La prochaine génération d’acteurs gagnants ne se définira pas par la vitesse d’exécution, mais par la qualité de conception.
Bref…
Nous entrons dans une phase de désillusion constructive. L’IA n’est pas un échec, loin de là. Mais sa promesse initiale a peut-être été surinterprétée, instrumentalisée parfois pour justifier des décisions impopulaires, et surtout appliquée sans prudence dans des environnements qui demandent rigueur, cohérence et continuité. On a parfois l’impression que tout le monde veut s’approprier son gadget d’IA sans réelle stratégie ou vision derrière. Et clairement, ça ne sera pas signe de productivité en hausse si l’on fait ça sur du long terme.
Il est encore temps de revenir à un modèle plus intelligent. Non pas en s’éloignant de l’IA, mais en choisissant de mieux l’utiliser. En revalorisant l’expertise humaine, en clarifiant les zones d’intervention de chacun, en repensant les systèmes non pas comme des chaînes automatisées, mais comme des écosystèmes hybrides.
Les illusions tomberont. Et ce jour-là, ceux qui auront construit avec sobriété et discernement auront une longueur d’avance.
Merci pour cette lecture très instructive, je m'abonne tout de suite 💜