L’IA …
De nombreux défauts
.
Alexandre Mirlicourtois (*)
Directeur de la conjoncture et de la prévision
et Dominique Turcq (*)
.
Une fois n’est pas coutume, ce sont deux textes qui vous sont proposés dans la rubrique Humeurs. Les auteurs soulèvent des aspects négatifs de l’Intelligence artificielle dont on connaît, à l’inverse, l’engouement quasi généralisé, sans réelle précaution, actuellement. Dominique Turc insiste sur les conséquences néfastes du recours à l’IA qui brise la confiance entre enseignants et étudiants et n’incite pas à la recherche intellectuelle, tandis qu’Alexandre Mirlicourtois démontre les limites de l’IA dans les prévisions économiques.
Malgré l’IA, les prévisions économiques seront de plus en plus fausses
.
Alexandre Mirlicourtois
.
L’intelligence artificielle (IA) améliore considérablement la collecte de données et affine les modèles de prévision. Toutefois, ces avancées, loin d’assurer des scénarios précis, masquent en réalité les limitations structurelles de l’IA. Les algorithmes actuels excellent dans la projection de tendances courtes, mais ils échouent à anticiper les ruptures profondes ou les chocs externes. Si l’IA permet d’explorer des volumes massifs de données, elle reste inapte à interpréter les signaux faibles ou à prévoir des transformations structurelles globales, comme le réchauffement climatique ou les tensions géopolitiques. Ainsi, malgré les progrès en IA, les prévisions risquent de devenir de plus en plus décalées par rapport aux réalités futures.
La réalité des imprévus et des comportements humains
.
Au lieu de clarifier les perspectives économiques, l’IA révèle souvent l’incertitude radicale à laquelle sont confrontés les prévisionnistes. Cette incertitude radicale, qui échappe à tout calcul probabiliste, rend les prévisions de moins en moins fiables. Il faut insister sur le fait que les algorithmes d’IA ne peuvent gérer que des risques quantifiables, alors que la plupart des événements économiques majeurs sont imprévisibles, tels que les crises sanitaires ou les ruptures technologiques. Ces facteurs d’instabilité, toujours plus nombreux, font que les prévisions économiques sont inévitablement biaisées et deviennent souvent obsolètes presque immédiatement.
L’IA ne parvient pas non plus à modéliser les comportements humains irrationnels et leurs conséquences économiques. Les individus réagissent souvent de manière émotionnelle plutôt que rationnelle, en particulier dans des situations de crise. Ce phénomène est amplifié par les réseaux sociaux, où l’information circule instantanément et peut déclencher des paniques ou des bulles. Ces comportements irrationnels, difficiles à quantifier et imprévisibles, échappent aux modèles de prévision basés sur l’IA, rendant les prévisions encore plus incertaines.
Les biais des experts et leurs impacts
.
L’usage de l’IA dans les prévisions économiques n’élimine pas non plus les biais cognitifs des experts. Les meilleurs modèles sont souvent construits en fonction des attentes des prévisionnistes, qui sont soumis à des biais de confirmation. Ces biais peuvent amener les économistes à accorder plus de poids aux données qui confortent leurs opinions, au détriment de celles qui suggèrent des résultats différents. Ainsi, les prévisions deviennent un reflet des hypothèses préexistantes, rendant leur précision d’autant plus discutable dans un environnement complexe.
Malgré les avancées en intelligence artificielle, les prévisions économiques sont condamnées à rester incertaines, et le seront même de plus en plus. L’IA permet certes de traiter un grand volume de données, mais elle ne peut prévoir les imprévus ni interpréter les signaux faibles. Les prévisions, même assistées par la technologie, demeurent un outil limité et souvent inadéquat pour appréhender les évolutions économiques futures.
.
![]() |
(*) Alexandre Mirlicourtois est directeur des études économiques du groupe Xerfi depuis 2006, et responsable de la lettre de conjoncture Xerfi-Previsis. Il dirige les travaux de prévisions économiques, analyses conjoncturelles et prospectives de Xerfi. |
L’IA va renforcer le complexe de l’imposteur
.
Dominique Turcq
Un lycéen ou un étudiant qui remet un travail écrit parfait ; un collaborateur qui fournit une analyse pertinente d’une situation, voire qui fournit aussi le PowerPoint adéquat, bien léché et articulé, qui va avec l’analyse, nous impressionne même si l’on sait qu’un Large Language Model (LLM) a été utilisé. Cette technologie permet à celui qui en voit le résultat, professeur ou collaborateur, d’être satisfait de la qualité du résultat. Elle permet à celui qui a utilisé le LLM pour réaliser le produit fini d’être lui aussi satisfait et de croire qu’il a acquis ces connaissances.
Mais le professeur ou le collègue s’interroge aussi de plus en plus fréquemment sur la façon dont cette apparente perfection a été atteinte. Alors le premier décide de faire passer un oral et le second va questionner l’auteur sur son travail, ses sources, sa pertinence critique des résultats, etc.
Le problème est qu’en faisant passer un oral à l’étudiant ou qu’en interrogeant le collaborateur sur la façon dont il a procédé, comment il a sourcé ses informations, comment il peut commenter et avoir une opinion sur les conclusions, ces derniers peuvent apparaître pauvres, voire incompétents, donc décevants. Mais il n’y a pas que le professeur ou le collègue qui sont déçus. À l’oral, celui qui doit se justifier sent bien qu’il n’est pas au niveau, qu’il n’a fait que jouer à l’illusionniste. Le complexe de l’imposteur va bien se porter ! La dévalorisation, voire la honte, ainsi provoquée sera probablement l’un des enjeux psychologiques des prochaines années. Il faudra éduquer à utiliser mieux les LLM, à exercer son esprit critique, à comprendre, à assimiler ce que l’on a produit avec ces outils magiques.
Cette relation entre la compétence et le résultat soulève un vrai problème, celui de la relation à l’apprentissage et donc au savoir. Utiliser l’IA est comme prendre l’ascenseur plutôt que l’escalier. C’est une réduction de l’effort et donc la non-acquisition de muscles physiques ou cognitifs. Cela va plus loin. L’utilisation des outils modernes, et en particulier les moteurs de recherches, présente déjà cet inconvénient, en amenant chacun à savoir où il peut retrouver l’information plutôt que de connaitre ou de comprendre l’information. Or ne connaitre que des emplacements d’information n’est pas de la connaissance et ne permet pas de faire des liens entre des connaissances. En bridant l’acquisition et la digestion de compétences, on bride l’innovation en ce qu’elle est la capacité à construire des ponts entre des savoirs.
L’IA pourrait donc amplifier une atrophie cognitive dont nous souffrons déjà. Le GPS fait que nous ne savons plus lire une carte, et donc avons des problèmes à nous situer géographiquement. Les calculettes ont atrophié notre calcul mental. Les LLM en particulier en nous faisant croire que nous avons des savoir-faire et en nous permettant de le faire croire à d’autres, nous dispense d’en acquérir. Ce n’est grave que si nous renonçons systématiquement à prendre l’escalier. Le coupable n’est pas l’IA mais notre paresse intellectuelle.
.
![]() |
(*) Dominique Turcq est diplômé d’HEC et Docteur de l’EHESS. Il a été professeur à HEC, directeur associé chez McKinsey, DG stratégie mondiale chez Manpower. Il a fondé et préside l’Institut Boostzone (conseil en stratégie, recherche sur l’avenir du monde du travail). Il enseigne à Sciences Po et intervient comme conférencier et formateur en grandes entreprises. Il est chroniqueur pour plusieurs revues RH et Stratégie. |
Source bandeau : IA / Laure Fanjeau


RSS - Articles
Laisser un commentaire