Newsletter
mai 2026

La 10ème limite planétaire : quand notre capacité à penser devient une ressource sous pression...

L'Optimisme en Mouvement #28 - La newsletter LinkedIn de notre fondatrice

Newsletter

mai 2026

La 10ème limite planétaire : quand notre capacité à penser devient une ressource sous pression...

L'Optimisme en Mouvement #28 - La newsletter LinkedIn de notre fondatrice

Et si la prochaine crise planétaire n’était pas seulement écologique… mais aussi cognitive ? Dans un monde saturé d’informations, de notifications, de contenus générés en continu et d’interactions médiées par des algorithmes, notre attention, notre capacité de discernement et notre qualité de pensée pourraient bien devenir des ressources sous pression, d’autant plus critiques que la planète a plus que jamais besoin qu’on pense clair et bien.

Cette hypothèse, bien qu’encore émergente, résonne particulièrement avec les premiers enseignements des usages de l’intelligence artificielle. Car si l’IA promet de nous faire gagner du temps, elle semble aussi, dans certains cas, transformer profondément notre rapport à l’effort, à la décision… et à la pensée elle-même.

En effet, au fil des études publiées sur les usages de l’IA (à un rythme tel que l’IA devient nécessaire pour les suivre !), la promesse de libération s’éloigne : on nous annonçait moins de tâches répétitives, moins de temps perdu, plus de créativité, plus de recul, plus de valeur ajoutée humaine ? Las, un autre récit commence à émerger, moins euphorique et plus troublant : celui d’une IA qui ne supprime pas toujours le travail, mais le déplace ; qui ne réduit pas nécessairement notre charge mentale, mais la transforme ; et qui ne nous rend pas forcément plus intelligents, mais peut au contraire saturer notre capacité à penser – au point que certains commencent donc à évoquer l’idée d’une “10e limite planétaire”, située… dans notre cerveau.

Cette newsletter ne vise pas à opposer l’humain et la machine. Ce serait trop simple, et sans doute déjà dépassé. Elle pose une autre question : dans un monde où l’IA augmente nos capacités à court terme, peut-on éviter qu’elle n’atrophie nos capacités à long terme et si oui, comment s’y prendre pour faire de l’IA une prothèse qui augmente la pensée plutôt qu’une béquille qui l’affaiblit ?

LA PROMESSE : MOINS DE TACHES INGRATES, PLUS DE TRAVAIL A VALEUR HUMAINE

Commençons par saluer ce que l’IA apporte vraiment. Dans beaucoup de situations, elle réduit le temps passé sur des tâches répétitives, ingrates, mécaniques, ou simplement peu stimulantes. Elle peut aider utilement à résumer, comparer, traduire, structurer, reformuler, générer des hypothèses, explorer des options. Elle peut accélérer formidablement la recherche, la rédaction, le prototypage, le support client, l’analyse ou la créativité.

Un article récent de la Harvard Business Review le confirme : lorsque l’IA remplace effectivement des tâches routinières ou répétitives, les scores de burnout diminuent. Dans l’étude citée, les salariés qui utilisent l’IA pour réduire significativement le temps passé sur ces tâches affichent des « scores de burnout » (c’est un curieux concept, j’en conviens) inférieurs de 15 % à ceux qui ne l’utilisent pas de cette manière.

Autrement dit : l’IA peut alléger le travail lorsqu’elle supprime du “toil”, ce travail répétitif, peu visible, qui use sans forcément produire de sens. Mais à une condition essentielle et évidente : que les gains de temps soient réellement redonnés aux humains sous forme de respiration, d’apprentissage, de coopération, de créativité ou de qualité.

Or, et c’est là que le bât blesse, on s’en doute, c’est rarement ce qui se passe spontanément dans les organisations. Car trop souvent, chaque gain de productivité devient une nouvelle exigence de productivité, chaque tâche automatisée libère du temps qui va permettre de se consacrer à une autre tâche… Et c’est ici que la promesse commence à se retourner (contre ceux qui m’ont crue).

LE RETOURNEMENT : QUAND L’IA NE SIMPLIFIE PLUS LE TRAVAIL, MAIS L’INTENSIFIE

Comme le pointe justement l’article de la Harvard Business Review , l’IA peut en effet créer une nouvelle catégorie de charge mentale : la charge de supervision.

Le travailleur ne se contente plus de faire : il pilote. Il ne se contente plus d’écrire : il prompte, compare, corrige, réécrit. Il ne se contente plus d’analyser : il vérifie si l’analyse produite par la machine est fiable, complète, pertinente et non biaisée. Il ne se contente plus de décider : il doit arbitrer entre plusieurs « rendus » possibles, parfois contradictoires, parfois très convaincants mais aussi souvent erronés.

Et voici qu’émerge une nouvelle forme de travail invisible, fragmenté, diffus, qui mobilise fortement l’attention, la mémoire, le jugement, la capacité à prioriser et la capacité à dire stop. D’ailleurs, dans l’étude HBR, les salariés dont le travail avec l’IA exige un niveau élevé de supervision déclarent 14 % d’effort mental supplémentaire, 12 % de fatigue mentale en plus et 19 % de surcharge informationnelle en sus.

Ce n’est pas anecdotique – car la fatigue ne vient pas seulement de la quantité de travail, mais du fait de devoir maintenir en permanence un état d’alerte cognitive : vérifier si ce que me dit l’IA est vrai, si c’est utile, si c’est nouveau, si c’est banal, si c’est dangereux… et in fine si cela mérite d’être conservé.

Faut-il garder cette version ? Relancer le modèle ? Changer l’angle ? Comparer avec une autre source ? Demander une variante ? Vérifier une citation ? Reformuler le prompt ? A chaque fois que l’IA produit des réponses, elle produit aussi des décisions supplémentaires à prendre… en continu. Et c’est là sans doute le véritable coût cognitif de l’IA – qui ne tient pas seulement à ce qu’elle fait mais à tout ce qu’elle nous oblige à décider autour de ce qu’elle fait.

LE “BRAIN FRY” : UNE NOUVELLE FATIGUE COGNITIVE DU TRAVAIL AUGMENTE

La Harvard Business Review met un nom sur ce phénomène : l’“AI brain fry”, littéralement le cerveau grillé par l’IA. L’expression est imagée et peu élégante, mais elle pointe quelque chose de très concret que les auteurs distinguent clairement du burnout. Ce dernier est un état chronique d’épuisement lié au stress professionnel, à la perte de sens, à la surcharge émotionnelle, à la dégradation du rapport au travail. Alors que l’AI brain fry relève d’autre chose – une fatigue cognitive aiguë, liée à l’usage intensif ou à la supervision excessive d’outils d’IA au-delà de notre capacité mentale, ce qui pose une question plus large : sommes-nous en train d’approcher une forme de “limite cognitive”, au même titre que les fameuses limites planétaires qui encadrent déjà notre rapport aux ressources naturelles ?

Les salariés interrogés parlent de brouillard mental, de sensation de bourdonnement, de difficulté à se concentrer, de ralentissement dans les décisions, parfois même de maux de tête. Certains décrivent l’impression au bout du compte de ne plus réussir à savoir si ce qu’ils viennent de produire a encore du sens.

C’est une expérience que beaucoup reconnaîtront : après une longue séance de va-et-vient avec l’IA, on n’est pas toujours soulagé. On peut finir par être plus confus qu’au départ. Parce qu’à partir de notre idée initiale, on a accéléré la production et généré beaucoup d’options (peut-être trop), sans avoir forcément clarifié le problème ni renforcé le jugement.

Car multiplier les pistes, ce n’est pas forcément choisir un chemin – et encore moins choisir le bon. L’étude estime ainsi que 14 % des utilisateurs de l’IA au travail ont déjà vécu ce phénomène. Et la proportion monte à 26 % dans les fonctions marketing, qui seraient parmi les plus exposées à la multiplication des outils, des contenus, des variantes, des tests et des arbitrages.

Un enseignement intéressant montre aussi que la productivité progresse quand on passe d’un à deux outils d’IA utilisés simultanément ; elle progresse encore, mais moins fortement, avec un troisième ; et au-delà de trois outils, elle diminue. Comme quoi, les vérités anciennes du travail numérique ont encore de l’avenir : le multitâche promet l’efficacité, mais il détruit l’attention. Et l’IA, loin de supprimer cette limite humaine, peut au contraire l’amplifier.

LE PARADOXE DEVOILE PAR LE BCG : L’IA AUGMENTE LA PERFORMANCE… A L’INTERIEUR DE SA FRONTIERE

Une autre étude plus ancienne et qui a beaucoup circulé du Boston Consulting Group (BCG) (associé aux chercheurs de Harvard University , du Massachusetts Institute of Technology , de The Wharton School et de University of Warwick – Warwick Business School ) a montré que l’IA générative peut fortement augmenter la performance des travailleurs du savoir lorsqu’elle est utilisée dans son bon périmètre… tout autant que dégrader les résultats lorsqu’elle est utilisée hors de sa “frontière de compétence” – illustrant parfaitement cette double face de l’IA générative.

Sur certaines tâches, les consultants équipés de GPT-4 ont produit davantage, plus vite et avec une meilleure qualité évaluée. Les gains étaient particulièrement visibles pour les consultants initialement moins performants, ce qui suggère que l’IA peut avoir un effet de rattrapage et de démocratisation de certaines compétences.

Mais l’étude montre aussi l’existence d’une “frontière technologique irrégulière” : certaines tâches qui semblent très proches pour un humain sont en réalité très différentes pour l’IA. A l’intérieur de cette frontière, l’IA peut aider… tandis qu’à l’extérieur, elle peut nuire (à notre insu). Pour prendre des exemples concrets, l’IA excelle pour produire un benchmark ou une synthèse de tendances – c’est-à-dire recombiner efficacement des connaissances existantes – mais devient beaucoup plus fragile voire fantasque dès qu’il s’agit de formuler une recommandation stratégique, d’arbitrer entre plusieurs options ou de hiérarchiser des priorités dans un contexte donné. De la même manière, elle peut très bien lister les avantages et inconvénients d’un projet d’investissement, mais beaucoup moins bien dire s’il faut investir ou non – car décider suppose du jugement, une compréhension fine des enjeux… et une responsabilité qu’elle ne porte pas. L’enjeu, c’est que nos cerveaux ne perçoivent pas cette frontière ni les limites de l’IA, et ce n’est pas anodin : cette difficulté participe directement à la pression exercée sur notre cognition.

Car l’IA peut donner des réponses très fluides dans des domaines où elle est compétente, mais aussi dans des domaines où elle ne l’est pas. Pour le dire encore plus clairement : sa confiance apparente et son assertivité ne correspondent pas nécessairement à sa fiabilité réelle. De sorte que les utilisateurs que nous sommes doivent donc développer une compétence nouvelle : savoir quand faire confiance, quand douter, quand et comment vérifier, quand reprendre la main. Il s’agit là, sans doute, d’une des compétences les plus critiques du travail de demain. Et le problème est qu’elle suppose précisément ce que l’automatisation et l’IA risquent d’affaiblir : du jugement, de la culture générale, une compréhension fine du sujet, la capacité à structurer un problème, à repérer une incohérence, à sentir qu’une réponse “sonne juste”… mais ne tient pas debout !

LA DEPOSSESSION COGNITIVE : CE QUE NOUS DELEGUONS VRAIMENT

Dans un excellent entretien paru dans Le Monde entre Anne Alombert et Jonathan Bourguignon dont j’ai déjà parlé dans un post, la philosophe rappelait une chose essentielle : toute technologie intellectuelle implique une forme de délégation de nos capacités – l’écriture délègue une partie de la mémoire, le livre transforme notre rapport au savoir, les algorithmes de recommandation délèguent une partie du choix… et les IA génératives délèguent une partie de l’expression.

Pour elle, le sujet n’est donc pas de savoir si la délégation est bonne ou mauvaise en soi. L’humanité n’a jamais pensé sans outils. Le sujet c’est plutôt de savoir ce que cette délégation fait à nos capacités, à nos automatismes, à notre autonomie, et en réalité à notre manière de parler, d’apprendre, de décider. Car une technologie n’est jamais un outil neutre : elle conditionne nos gestes, nos rythmes, nos attentes, nos seuils de patience, nos formes d’attention… Et avec l’IA générative, la délégation touche des fonctions très centrales : écrire, formuler, résumer, argumenter, créer des images, chercher, interpréter, prendre position.

Au fond, l’IA ne nous aide pas seulement à faire plus vite – elle intervient dans la fabrique même de notre pensée. Ce qui pose évidemment des questions tout autant politiques que cognitives : qui entraîne ces outils ? Qui les possède ? Quelles valeurs, quels biais, quelles formes de langage et de raisonnement diffusent-ils ? Et que se passe-t-il, ou que pourrait-il se passer, quand nos manières de penser sont de plus en plus médiées par quelques infrastructures privées ?

DECIDER A L’ERE DE L’IA : DELEGUER, CORRIGER… OU APPRENDRE A ECOUTER ?

Un autre déplacement est en train de se jouer, plus profond encore que la question de la fatigue ou des compétences : celui de la décision.

Comme le rappellent Olivier Sibony et Hazan. Eric dans leur récent livre Faut-il encore décider ?, l’IA ne se contente pas d’exécuter. Elle entre dans le cœur même de nos arbitrages et nous met au passage face à un paradoxe inconfortable : si l’IA se trompe, c’est souvent parce qu’elle nous ressemble, mais si elle a raison contre nous… sommes-nous prêts à l’accepter ? En effet l’IA ne pense pas “en dehors” de nous : elle apprend à partir de nos données, de nos décisions passées, de nos textes, de nos biais. Lorsqu’elle reproduit une erreur, un angle mort ou un raisonnement fragile, il y a de fortes chances qu’elle ne fasse que prolonger – certes à grande échelle – des biais humains déjà présents. En ce sens, elle est moins une intelligence venue d’ailleurs qu’un miroir grossissant.

Mais l’inverse est tout aussi troublant : dans certains cas bien définis, où les objectifs sont clairs et les données abondantes, l’IA peut produire des résultats plus fiables que notre intuition. Et c’est là que la difficulté commence : sommes-nous prêts à remettre en cause notre jugement lorsque la machine nous donne tort ? Dans beaucoup d’organisations, “garder le contrôle” signifie en réalité imposer notre intuition et ici en l’espèce corriger l’IA pour la faire rentrer dans ce que nous pensions déjà. Autrement dit, nous acceptons facilement ses erreurs lorsqu’elles confirment nos biais… mais beaucoup moins ses vérités lorsqu’elles les contredisent.

Le véritable enjeu n’est ainsi pas seulement d’éviter que l’IA se trompe. Il est d’apprendre à reconnaître les moments où nous nous trompons nous-mêmes – et où elle peut nous aider à le voir. Car l’IA peut aussi corriger nos biais, si on le lui demande explicitement. Ce qui suppose que nous développions une compétence nouvelle et pas évidente – en acceptant d’être contredit par une machine !

C’est déjà le cas dans certains domaines très balisés (imagerie médicale, scoring de crédit, optimisation logistique…), où l’IA est déjà plus performante que les experts humains. Mais dans des situations plus ouvertes (stratégie, investissement, gouvernance…), elle intervient en partenaire pour structurer, challenger, explorer, jouer l’avocat du diable. Et ce monde de co-décision hybride Homme x Machine est l’un des vecteurs les plus puissants de la pression émergente qui s’exerce sur notre cerveau.

Le problème, soulignent Olivier Sibony et son co-auteur, c’est que toutes les décisions ne doivent pas être déléguées. Non pas parce que l’IA en serait incapable, mais parce que pour certaines la manière de décider fait partie de la décision elle-même : ainsi un jugement rendu par un algorithme, même exact, ne produira pas le même effet qu’un jugement rendu par un humain, dans un cadre incarné, avec ses rituels, sa parole, sa responsabilité. Et ce qui est vrai pour la justice l’est sans doute aussi pour le management, la politique, ou la relation client.

L’IA n’est pas seulement une technologie, c’est une infrastructure de décision. Et la vraie question n’est pas de savoir si elle décide mieux que moi ou nous, mais plutôt de savoir ce que nous voulons qu’elle optimise et selon quels critères, décidés par qui ? A nouveau, en écho au propos d’Anne Alombert, la question est profondément politique.

L’AVANTAGE ANALOGIQUE : LES GESTES D’HIER SONT LES COMPETENCES RARES DE DEMAIN

La décision de faire autrement : c’est exactement le point de départ de l’excellent article récent sur “l’avantage analogique” de Laetitia Vitaud dans Fast Company. À l’heure où tout pousse à ajouter de la technologie, Laëtitia propose de regarder au contraire ce que l’on retranche : la main, le corps, la lenteur, la mémoire, la conversation, la présence, la lecture profonde, l’argumentation sans support. A force de tout automatiser, écrit-elle, il pourrait exister demain un avantage compétitif pour celles et ceux qui continueront à écrire à la main (j’avais dans un post parlé de cet excellent article de la revue Monocle, paru en février 2025, qui rappelait que prendre des notes à la main renforce la compréhension et la mémorisation, que l’écriture manuscrite mobilise davantage de zones cérébrales que la frappe au clavier, ou que l’usage du stylo favorise la mémoire, la concentration et la pensée critique plus qu’un clavier), pour celles et ceux qui persisteront à lire de longs textes (comme celui-ci !) mais aussi à marcher, à savoir débattre sans écran et parler sans slides, à perdre du temps à la machine à café pour entretenir le lien avec leurs collègues, pour celles et ceux qui préserveront leur capacité à apprendre sans assistance – c’est-à-dire à entretenir les muscles cognitifs que la technologie tend à mettre au repos.

Son image de l’ascenseur est très parlante. On encourage tout le monde à prendre l’ascenseur pour aller plus vite et monter plus d’étages. Mais à force, ceux qui prennent les escaliers devient une anomalie. Jusqu’au jour où survient une panne de courant. À ce moment-là, celui ou celle qui montait lentement mais régulièrement est le seul à avoir encore les muscles (et le souffle) nécessaires.

Pour elle, c’est exactement comme cela qu’il faut agir avec nos capacités cognitives. Car à force d’externaliser l’écriture, la synthèse, la mémorisation, la formulation, l’argumentation ou la structuration, nous risquons de perdre les muscles qui permettent justement de bien utiliser l’IA – et c’est tout le paradoxe.

On aurait donc tort de voir l’avantage analogique comme une nostalgie du bruissement de la plume sur le papier, ou une forme de résistance romantique au progrès. C’est au contraire, dit-elle, une stratégie d’entraînement. Car écrire à la main force à hiérarchiser. Lire de longs textes ou de gros livres oblige à soutenir son attention. Marcher favorise la pensée divergente. Travailler autour d’un tableau blanc réactive la co-présence. Apprendre sans assistance construit les bases du jugement. Tout comme parler sans slides oblige à construire un raisonnement vivant. Et comme prendre le temps d’échanger vraiment avec ses collègues renforce le lien social et la qualité de la collaboration voire de l’innovation, cependant que soigner sa tenue et sa présence influence notre état d’esprit et notre niveau d’exigence.

Ces pratiques ne sont pas “moins modernes”. Elles vont même, nous dit Laëtitia, devenir modernes précisément parce qu’elles entretiennent ce que la modernité technologique risque de fragiliser. L’avantage analogique n’est donc pas seulement une stratégie individuelle : il pourrait devenir un levier collectif pour rester en-deçà de la limite cognitive.

LES SIGNAUX FAIBLES QUI DEVRAIENT NOUS ALERTER : IMPATIENCE, DEPENDANCE, DETTE COGNITIVE

Au-delà des études académiques, des témoignages de praticiens très avancés dans l’usage de l’IA apportent un éclairage précieux – et parfois inquiétant. Plusieurs décrivent une expérience très concrète : l’impatience face au moindre temps d’attente. Face à ChatGPT ou Claude, trente secondes de latence deviennent insupportables. Ce qui, hier encore, demandait dix minutes de réflexion paraît soudain trop lent et ce glissement est loin d’être anodin. Il traduit notre intolérance croissante à la friction cognitive.

Quand l’accès à la réponse devient quasi instantané, le cerveau recalibre ce qu’il considère comme un “temps normal”. C’est ce que le Prix Nobel Daniel Kahneman (psychologue et économiste) appelait la tension entre le système 1 (rapide, intuitif) et le système 2 (lent, analytique). L’usage intensif de l’IA tend à suractiver le premier, et à désactiver le second. Manque de chance, c’est le système 2 qui permet l’apprentissage profond, le raisonnement complexe, la capacité à tenir une contradiction, à douter, à reformuler.

Des travaux récents en sciences cognitives l’ont déjà montré : après seulement 10 à 15 minutes d’assistance par IA, certains utilisateurs, privés ensuite de l’outil, performent moins bien et abandonnent plus vite. La persistance – qui est pourtant un facteur clé de l’apprentissage – diminue. Insensiblement, quelque chose se déplace : on attend des réponses plus qu’on ne construit des questions, on sollicite avant d’avoir vraiment réfléchi, on délègue sans problématiser. Une forme de « désentraînement cognitif » s’installe – ce que certains chercheurs commencent à appeler une “dette cognitive” : un gain immédiat de productivité … maisqui se paie à long terme par une perte de profondeur, de mémorisation et de capacité de jugement.

Un second mécanisme, bien connu en psychologie comportementale, renforce cette dynamique : la récompense variable. Car l’IA fonctionne de manière aussi imprévisible que les jeux de hasard ou les réseaux sociaux : chaque prompt est un coup de dé, et les résultats sont parfois excellents, parfois surprenants, parfois émouvants (j’ai assisté récemment à une conférence où l’un des intervenants a posé cette question au public : « qui a déjà été ému.e par une IA ? » et j’avoue avoir été surprise du nombre de gens qui ont levé la main) et parfois médiocres. Cette variabilité entretient curieusement une forme d’engagement quasi-addictif et libérateur de dopamine à peu de frais – car le coût d’entrée est extrêmement faible (une simple requête, un prompt même mal formulé), pour une récompense potentielle élevée. L’addition naît de ce déséquilibre qui favorise des sessions de « conversations » longues, fragmentées et difficiles à interrompre (surtout quand l’IA conclut sa réponse par ce fameux « tu tiens quelque chose : si tu veux aller plus loin, je peux te donner ceci ou cela »).

Et c’est là qu’il nous faut regarder lucidement les modèles économiques sous-jacents : dans de nombreux cas, les outils sont facturés à l’usage (tokens, volume généré). Ce qui crée une incitation structurelle à produire plus – pas nécessairement mieux. Le risque d’une érosion progressive de notre capacité à produire sans assistance se double de celui d’une avalanche de contenus de piètre qualité (ceux produits par l’IA représenteraient déjà plus de 50% des contenus en ligne) dans lesquels l’IA ira piocher demain les réponses à nos futurs prompts, entraînant une dégradation des réponses qui justifierait précisément que nous préservions nos capacités cognitives ! Au lieu de payer pour externaliser des compétences que nous devrions entretenir.

LE RISQUE CACHE : UNE GENERATION TRES ASSISTEE, MAIS MOINS AUTONOME

Le risque le plus sérieux n’est donc pas que l’IA remplace les humains, mais plutôt qu’elle remplace certains apprentissages par lesquels les humains deviennent compétents. Dans beaucoup de métiers (et c’est le cas très clairement dans le conseil), les tâches de juniors ne sont pas seulement des tâches à faible valeur ajoutée : elles sont aussi des exercices de formation. Relire, chercher, comparer, compiler, faire une première note imparfaite, préparer un tableau, écrire une synthèse, construire une bibliographie, tester une hypothèse : tout cela peut sembler automatisable. Mais c’est souvent par ces gestes que l’on apprend à penser un métier.

Si l’IA absorbe trop vite ces tâches d’entrée, les organisations peuvent créer ce que les anglo-saxons nomment déjà un “skills cliff” – une falaise de compétences. Des juniors produisent plus vite, mais construisent moins profondément les bases qui leur permettront demain de devenir des seniors compétents et reconnus. Au-delà des individus, c’est ainsi la capacité collective des organisations à penser qui pourrait s’éroder demain…

Voici un sujet majeur pour les cabinets de conseil mais aussi pour les agences, les directions marketing, les médias, les écoles, les services publics, et toutes les organisations qui vivent de la capacité de leurs équipes à analyser, écrire, comprendre, convaincre, décider. Former à l’IA ne suffira donc pas – et il faudra sans doute aussi former sans IA, non pas par principe, mais par hygiène cognitive. Comme on fait des gammes avant d’improviser, comme on apprend le calcul avant d’utiliser une calculatrice… Ce que tout enseignant ou parent sait de source sûre : l’autonomie ne se décrète pas, elle s’entraîne.

CE QUE LES ENTREPRISES PEUVENT FAIRE : PASSER DU DEPLOIEMENT TECHNOLOGIQUE AU DESIGN COGNITIF DU TRAVAIL

Le grand sujet n’est donc plus vraiment “faut-il utiliser l’IA ?”, car la réponse est oui, sans doute. Le vrai sujet est plutôt de savoir comment organiser le travail pour que l’IA augmente réellement les capacités humaines sans les saturer ni les atrophier ? Cela suppose à mon sens plusieurs bascules.

D’abord, arrêter de mesurer l’usage par lui-même. Les lignes de code générées, les volumes de contenus produits, les tokens consommés ou le nombre d’agents mobilisés ne disent rien de la qualité, de la pertinence ou de l’impact. Pire : ces indicateurs peuvent encourager exactement ce qu’il faudrait éviter, c’est-à-dire la surproduction (virtuelle mais bien réelle), le brouhaha, l’empilement et l’épuisement cognitif.

Ensuite, clarifier les attentes de charge de travail. Si l’IA permet de gagner 20 % de temps, que fait-on de ces 20 % ? Les rend-on aux salariés pour apprendre, coopérer, respirer, créer, prendre soin et améliorer la qualité ? Ou les transforme-t-on immédiatement en 20 % de production supplémentaire ? Cette question est décisive. Car dans l’étude HBR, les salariés qui sentent que leur organisation attend davantage d’eux à cause de l’IA déclarent 12 % de fatigue mentale supplémentaire.

Troisième bascule : définir des limites de supervision. On a appris à penser le “span of control” dans le management humain, c’est-à-dire le nombre de personnes qu’un manager peut raisonnablement encadrer. Il va falloir penser le “span of attention” dans le management des agents IA : combien d’outils, de flux, de sorties, de tâches parallèles un humain peut-il réellement superviser sans perdre en qualité de jugement ?

Enfin, il faut créer des normes collectives d’usage. L’IA ne peut pas être seulement une affaire d’héroïsme individuel, où les plus avancés empilent les dispositifs jusqu’à l’épuisement pendant que les autres culpabilisent de ne pas suivre. Les équipes doivent décider ensemble de ce qui peut être automatisé, de ce qui doit rester humain, de ce qui doit être vérifié, de ce qui peut être appris sans assistance, de ce qui mérite du temps long et de l’attention. Avec l’objectif, non plus seulement d’optimiser la productivité, mais de préserver un capital cognitif devenu stratégique… et critique.

LA “10E LIMITE PLANETAIRE” : QUAND LA COGNITION DEVIENT UN ENJEU GLOBAL

On connaît désormais bien le cadre des « planetary boundaries », ces neuf limites écologiques qui définissent un espace sûr pour l’humanité, popularisée par le Stockholm Resilience Centre et l’économiste anglaise Kate Raworth avec sa métaphore du doughnut. Mais certaines voix s’élèvent (voir notamment 10ème Limite) pour proposer comme déjà évoqué d’ajouter une dixième limite planétaire, plus inattendue : celle de la cognition humaine. Avec cette idée est simple et vertigineuse, que dans ce monde saturé, nos capacités à penser sont devenues des ressources en tension.

Cette pression sur notre cognition ne se limite d’ailleurs pas aux environnements professionnels. Comme le montre un récent article de David-Julien Rahmil dans L’ADN , elle est déjà perceptible dans la sphère sociale, à travers la prolifération de contenus générés par IA conçus pour capter l’attention, susciter des émotions fortes – peur, nostalgie, amour ou indignation – et court-circuiter le discernement. Dans cet environnement informationnel saturé, la difficulté n’est plus seulement de s’informer, mais de distinguer le vrai du faux, le probable du manipulé, le crédible du fabriqué. Pour le dire autrement, la limite cognitive n’est pas seulement une question de fatigue ou de surcharge : elle est aussi une question de vulnérabilité – qui dépend autant de l’âge, de l’état émotionnel, du contexte social ou du temps d’exposition que du niveau d’éducation.

A ce niveau, il ne s’agit plus d’un enjeu individuel ou organisationnel… mais bien d’un enjeu systémique, presque planétaire. Et comme pour les limites écologiques, le problème n’est pas l’effondrement brutal, mais le dépassement silencieux, le glissement progressif (souvenez-vous de l’image de la grenouille dans l’eau bouillante du film d’Al Gore « une vérité qui dérange ») vers une fragmentation de l’attention, une dépendance aux outils, une perte de profondeur, et la standardisation des idées.

Ce que nous observons avec l’IA – fatigue mentale, externalisation du jugement, homogénéisation des productions – et dont je parle dans cette newsletter pourraient être les premiers signes d’un dépassement de cette “limite cognitive”. Vue sous cet angle, la question de l’IA change de nature : elle n’est plus seulement technologique, économique ou même organisationnelle, mais elle devient écologique – au sens d’une écologie de l’esprit. Comment préserver des capacités d’attention soutenue ? Comment maintenir la diversité cognitive dans un monde de modèles dominants ? Comment éviter que la recherche d’efficacité immédiate n’érode les conditions mêmes de la pensée ? Comment s’assurer que nous n’utilisons pas l’IA comme une béquille, qui tient et pense à notre place, mais plutôt comme un exosquelette, qui met notre propre pensée au travail ?

CONCLUSION : POUR UNE ECOLOGIE DE L’ATTENTION

A propos de limites planétaires, je n’ai que peu parlé à ce stade d’empreinte environnementale et sociale de l’IA, et cela mériterait un numéro entier de cette newsletter (voir sur le sujet écologique l’excellent rapport du Shift Project) – car l’intelligence artificielle de demain devra aussi être sobre et souveraine. Mais ce qui m’intéressait plutôt ici, c’est ce que j’appellerais son empreinte cognitive – pas facile à mesurer sans doute. Combien d’attention consomme-t-elle ? Combien de décisions supplémentaires crée-t-elle ? Combien de dépendances installe-t-elle ? Combien de jugements développe-t-elle ou affaiblit-elle ? Combien de conversations remplace-t-elle ? Et si l’IA est-elle efficace, pour quoi, pour qui, à quel coût l’est-elle, et avec quels effets sur nos capacités futures ?

Il ne s’agit pas de refuser les technologies nouvelles, il s’agit de ne pas les subir. Il ne s’agit pas de renoncer à l’IA, il s’agit de l’inscrire dans une véritable écologie du travail, du corps, du jugement et de l’attention. Car l’avantage compétitif de demain ne sera pas seulement de savoir utiliser l’IA. Il sera de développer, comme le dit très bien Laurence Devillers , une « intelligence d’utilisation » de l’IA, pour savoir aussi quand ne pas l’utiliser. Il faudra savoir écrire sans elle, pour mieux écrire avec elle. Savoir penser sans elle, pour mieux penser avec elle. Et surtout continuer à marcher, lire, débattre, écouter, douter, reformuler, décider. En somme, il s’agit de garder des capacités humaines suffisamment entraînées pour que l’intelligence artificielle reste un levier d’augmentation – et non un facteur d’atrophie.

À l’ère des limites planétaires, nous avons appris à penser la soutenabilité de nos ressources naturelles. Il est peut-être temps d’apprendre à penser la soutenabilité de nos ressources cognitives.

# #Climat# #Numérique Responsable
Production de données
Please select listing to show.
Graphisme
No data was found
Sur le même thème
Suivez toutes nos actualités
dans notre newsletter
Téléchargez la Publication !

UTOPIES s’est construit en accès libre, en échange nous pouvons vous partager des articles sur les sujets qui vous intéressent

Nom *
Nom
Prénom *
Prénom
E-MAIL *
E-mail
ENTREPRISE *
Entreprise
Poste *
Secteur *
Poste

* Champ obligatoire

En cliquant sur « Télécharger », vous acceptez que vos données personnelles soient collectées par UTOPIES pour l’envoi de communications commerciales ou relatives à nos actualités. Vous pourrez à tout moment vous désabonner de nos communications à partir du lien présent dans chaque e-mail.
Téléchargez l'annexe !

UTOPIES s’est construit en accès libre, en échange nous pouvons vous partager des articles sur les sujets qui vous intéressent

Nom *
Nom
Prénom *
Prénom
E-MAIL *
E-mail
ENTREPRISE *
Entreprise
Poste *
Secteur *
Poste

* Champ obligatoire

En cliquant sur « Télécharger », vous acceptez que vos données personnelles soient collectées par UTOPIES pour l’envoi de communications commerciales ou relatives à nos actualités. Vous pourrez à tout moment vous désabonner de nos communications à partir du lien présent dans chaque e-mail.