Chronique 69 - IA, robots de cuisine : on vous vole bien plus que vos emplois.
- Lucie Fourcade
- 24 avr.
- 9 min de lecture
Ce n'est pas la première fois qu'une technologie supprime des emplois.
C'est la première fois qu'une technologie viole les esprits.
Vous avez raison : l'IA va détruire beaucoup d'emplois.
Les traducteurs, les graphistes, les juristes, les journalistes : la liste est longue et les inquiétudes sont légitimes.
Mais vous avez tort de vous en soucier autant : les suppressions d'emploi sont loin d'être l'enjeu le plus grave.
Pendant qu'on regarde les emplois disparaître, on ne regarde pas ce qu'on nous vole en même temps.
Quelque chose de plus discret, de plus profond, et que France Travail ne nous aidera jamais à retrouver.
Ce n'est pas le chômage qui devrait nous tenir éveillés la nuit.
C'est la spoliation des capacités.

LA MAUVAISE QUESTION
Le débat sur l'intelligence artificielle est saturé d'une seule angoisse : les emplois.
Les robots vont-ils remplacer les travailleurs ?
Les algorithmes vont-ils vider les bureaux?
C'est la question qui monopolise les tribunes, les rapports institutionnels et les plateaux télévisés.
C'est une vraie question.
Mais c'est la mauvaise question.
La peur de perdre son emploi à cause d'une machine est aussi ancienne que la machine elle-même.
Les tisserands anglais brisaient les métiers mécaniques à coups de masse.
Les ouvriers redoutaient les premières chaînes de montage.
Les dactylos ont vu arriver le traitement de texte.
À chaque vague, la société s'est adaptée, douloureusement, inégalement, mais elle s'est adaptée.
Ce n'est pas une raison pour ignorer les ruptures que ces transitions provoquent.
Mais ce n'est pas le danger fondamental de l'IA.
Ce que les discours dominants masquent, volontairement ou par myopie, c'est une question autrement plus grave : non pas ce que l'outil produit, mais ce qu'il efface.
Pas les emplois, mais les capacités.
Pas ce qu'on fait, mais ce qu'on sait faire.
Et ce qu'on sait faire, une fois perdu, ne se retrouve pas avec un tuto YouTube.
UN MARCHÉ DE LA DÉPENDANCE
Pour comprendre le danger réel, il faut commencer par regarder quelque chose d'apparemment anodin : le robot de cuisine.
Le Thermomix, le Cookeo, leurs dizaines de concurrents connectés.
Des appareils qui mijotent, mixent, pèsent, chronomètrent, guident pas à pas.
Des appareils dont la promesse commerciale est explicite, assumée, fièrement affichée sur les sites de vente : vous n'avez plus besoin de savoir cuisiner pour réussir vos plats.
"Impossible de rater les recettes", promet Vorwerk.
"Le robot idéal pour ceux qui ne savent pas cuisiner"
On peut trouver ça pratique.
On peut trouver ça libérateur.
Mais si on prend un peu de recul, ce discours commercial révèle quelque chose d'inquiétant : il ne vend pas un outil qui aide à cuisiner mieux.
Il vend le remplacement de la compétence elle-même.
Il ne dit pas "apprenez à cuisiner avec nous".
Il dit "plus besoin d'apprendre".
Le problème n'est pas le robot.
Le problème est la dépendance qu'il installe.
Une dépendance à double verrou : dépendance à la machine elle-même (si elle tombe en panne, si elle devient obsolète, si l'abonnement à la plateforme de recettes est coupé), et dépendance à la chaîne d'approvisionnement qui l'alimente.
Car ce type d'appareil crée un marché totalement captif (source Houzz) : la machine exige ses propres ingrédients, ses propres formats, son propre écosystème numérique. Ce n'est plus cuisiner.
C'est opérer une machine.
L'AILE OU LA PUCE
En 1976, Louis de Funès et Coluche se battaient contre Tricatel dans L'aile ou la cuisse.
Le film de Claude Zidi tournait en dérision l'essor de l'industrie agroalimentaire : la nourriture reconstituée, standardisée, sans goût ni origine traçable, vendue comme un progrès.
Cinquante ans plus tard, Tricatel a gagné.
Non pas parce qu'il a imposé ses steaks en tube par la force, mais parce que nous avons progressivement perdu la capacité de faire autrement.
Cette logique s'est d'abord imposée à l'échelle de la chaîne alimentaire entière.
L'industrialisation de la nourriture a coupé des générations entières de leur rapport direct à la matière première : on ne tue plus l'animal, on ne cueille plus le fruit, on ne reconnaît plus une herbe comestible d'une herbe toxique.
Le supermarché a rendu ces compétences inutiles, puis incompréhensibles.
Pourquoi savoir chasser quand la barquette est au rayon frais ?
Pourquoi savoir reconnaître un légume de saison quand tout est disponible toute l'année?
La cuisine était le dernier rempart.
Ce savoir domestique, transmis de génération en génération, était le lien le plus direct qui nous restait avec la matière vivante que nous consommons.
Savoir cuire un œuf, faire une sauce, accommoder les restes : compétences qui ne demandent aucune infrastructure, aucun réseau électrique stable, aucun abonnement mensuel.
Compétences de survie, au sens littéral.
Le robot de cuisine achève cette rupture.
Il ne complète pas la compétence humaine : il s'y substitue, en proposant activement de ne pas l'acquérir.
Et le problème avec une compétence qu'on ne développe pas, c'est qu'elle ne se récupère pas sur commande.
Si demain la chaîne logistique qui livre les supermarchés est interrompue (une crise sanitaire, un choc énergétique, une rupture des importations) que reste-t-il à celui qui n'a jamais appris à cuire ce qu'il cultive ?
LA LIBERTÉ DE PENSER VOLÉE
Le robot de cuisine opère sur les mains.
L'intelligence artificielle opère sur la tête.
Le mécanisme est identique : proposer un raccourci si commode qu'on finit par oublier qu'il existait un chemin.
Mais l'enjeu change de nature.
On peut survivre sans savoir cuire un œuf.
Difficilement, précairement, mais on peut.
On peut même survivre sans penser : la preuve est là, flagrante, quotidienne.
Ce qu'on perd, c'est autre chose.
On perd la seule liberté qu'on croyait intouchable, celle que personne ne peut saisir de force, celle qui n'a besoin d'aucune infrastructure pour exister.
La liberté de former soi-même ses propres pensées.
Internet avait déjà modifié notre rapport à la recherche d'information.
On avait arrêté de chercher dans les livres, dans les encyclopédies, dans les mémoires humaines.
Le moteur de recherche avait externalisé cette compétence vers le réseau.
Nicholas Carr, journaliste américain, avait théorisé ce glissement dès 2010 dans son essai The Shallows : What the Internet Is Doing to Our Brains.
Il y soutient qu'Internet "aplatit" notre cerveau : à mesure que nous déléguons des tâches cognitives aux outils numériques, notre capacité à lire de manière linéaire, à nous immerger dans une information complexe, se réduit (source Nicholas Carr, The Shallows).
Nous devenons de plus en plus habiles à scanner et survoler, mais ce que nous perdons, c'est notre capacité de concentration, de contemplation et de réflexion.
L'IA générative franchit une marche supplémentaire, et elle la franchit vite.
Ce n'est plus "chercher" qui disparaît, c'est "analyser".
On ne demande plus à un moteur de recherche de nous orienter vers des sources : on demande à l'IA de digérer les sources à notre place et de nous servir une conclusion.
Le résultat semble identique.
Il ne l'est pas.
L'utilisation systématique de l'IA engendre des risques de dépendance technologique, et, de ce fait, de perte de compétences et d'autonomie : les tâches automatisées n'étant plus réalisées, des savoir-faire peuvent être perdus, rendant les individus potentiellement tributaires des applications et vulnérables en cas d'incidents (source Management & Data Science).
Mais ce glissement n'est pas accidentel.
Il suffit de lire les documents internes que ces entreprises n'ont pas choisi de rendre publics.
En 2021, les "Facebook Papers" révèlent que Meta savait, chiffres à l'appui, que ses algorithmes amplifiaient la désinformation et dégradaient la santé mentale de ses utilisateurs.
La connaissance était là.
La décision de continuer aussi.
OpenAI, Google, Meta ont des équipes entières de chercheurs en sciences cognitives, en psychologie comportementale, en design d'engagement.
Leur travail consiste précisément à mesurer à quelle vitesse un outil capte l'attention, réduit l'effort mental, crée le réflexe de délégation.
Ces métriques ne sont pas des alertes internes.
Ce sont des objectifs de conception.
La dépendance n'est pas un effet secondaire qu'on découvrirait après coup : c'est le produit.
Un utilisateur qui ne sait plus chercher par lui-même, qui ne sait plus analyser sans assistance, est un utilisateur captif.
Et un utilisateur captif est une source de revenus permanente.
Le modèle économique ne fonctionne qu'à cette condition.
Quand ces mécanismes sont pointés du doigt, la réponse est toujours la même : minimisation, déplacement du débat, contre-offensive sémantique.
On parle "d'augmentation" des capacités humaines plutôt que de substitution.
On parle "d'outil au service de l'humain" : formule aussi creuse que rassurante.
On pointe les emplois perdus pour éviter de parler des esprits anesthésiés.
Le vol de la liberté de penser ne laisse pas de traces visibles.
Il n'y a pas de victime qui se plaigne, puisque la victime ne sait plus qu'elle l'est.
NOUS ASSÉCHONS LA SOURCE QUI NOUS ABREUVE
Il y a un troisième niveau de danger, moins visible, mais potentiellement le plus structurel: la disparition des sources primaires elles-mêmes.
L'IA ne produit pas d'information.
Elle compile, reformule, synthétise ce que d'autres ont produit.
Journalistes, chercheurs, encyclopédistes bénévoles, témoins directs : ce sont eux qui alimentent le corpus à partir duquel les modèles génératifs fonctionnent.
Mais si les utilisateurs passent par l'IA plutôt que par les sources directes, ces sources perdent leur audience, donc leurs revenus, donc leur capacité à produire.
ChatGPT reformule, synthétise, digère, mais cite rarement.
Résultat : pas de lien, pas de crédit, et donc pas de trafic pour les médias à l'origine de l'information (source 75secondes.fr).
Le phénomène est déjà mesurable.
Depuis le lancement des "AI Overviews" de Google en 2024, le nombre de recherches d'actualités ne débouchant sur aucun clic vers un site d'information a atteint près de 69 % en mai 2025 (source Tech Generation).
Presque 7 recherches sur 10 ne génèrent aucune visite vers la source qui a produit l'information.
La presse survit encore, — mais pour combien de temps, si ce modèle se généralise ?
Même Wikipédia, cette encyclopédie collaborative gratuite construite par des millions de bénévoles, commence à voir son modèle menacé.
ChatGPT a dépassé Wikipédia en nombre d'utilisateurs dès le premier trimestre 2024 (source Siècle Digital).
Et l'encyclopédie a dû prendre une mesure radicale : ses contributeurs bénévoles ont voté, à une majorité de 40 contre 2, pour interdire l'usage des intelligences artificielles génératives (ChatGPT et ses équivalents) dans la création et la révision de ses contenus (source DCOD), craignant une contamination de la base encyclopédique.
Le serpent se mord la queue : l'IA se nourrit des sources qu'elle est en train d'assécher.
Si la presse indépendante disparaît, si Wikipédia s'appauvrit, si les archives de connaissance humaine cessent d'être alimentées par de nouveaux contenus vérifiés : que restera-t-il à synthétiser ?
Et la question qui suit est vertigineuse.
Si l'IA devient le canal principal par lequel les gens accèdent à l'information, et si les sources indépendantes qui alimentaient cette IA s'éteignent faute de lectorat, ce qui restera ne sera plus de l'information au sens propre.
Ce sera ce que les propriétaires des modèles auront décidé de synthétiser, de mettre en avant, d'arrondir ou d'effacer.
On n'aura plus affaire à une information issue de sources multiples, contradictoires, vérifiables, que le lecteur pouvait croiser et questionner.
On aura affaire à une version, celle d'OpenAI, de Google, de Meta.
Ce sera une nouvelle étape dans une concentration qui a toujours existé, mais qui atteint aujourd'hui un seuil dangereux : en France, 80% des médias sont déjà détenus par neuf milliardaires.
Bolloré, Niel, Drahi, Arnault : le contrôle de l'information n'est pas une menace future.
C'est un état présent.
L'IA ne l'inaugure pas.
Elle le perfectionne, l'automatise, et le rend enfin invisible à l'œil nu.
Le contrôle serait total, et d'autant plus efficace qu'il serait invisible : non seulement le contenu de ce qu'on pense, mais la méthode par laquelle on pense.
La forme et le fond.
Le canal et le message.
LA LIBERTÉ DE SAVOIR
Ce n'est pas l'outil qui est dangereux.
Ce n'est pas le robot de cuisine qui est l'ennemi, ni le chatbot, ni le moteur de recherche avant eux.
C'est l'usage passif, la délégation totale, la substitution progressive de nos capacités par des prothèses que nous ne contrôlons pas et dont nous devenons dépendants sans même le choisir consciemment.
Le vrai risque, c'est que l'outil aide tellement que, si l'outil n'est plus présent, nous sommes mis en défaut, parce que nous n'avons plus gardé notre compétence propre (source CESE).
La résistance commence là.
Pas dans le rejet de la technologie, mais dans le refus de la dépendance.
Apprendre encore.
Chercher encore.
Cuisiner encore.
Penser encore.
Sans intermédiaire.
Parce que ce que nous savons faire avec nos propres mains et notre propre tête, aucune panne de réseau, aucune obsolescence programmée, aucune main fasciste sur un interrupteur ne peut nous le prendre.
Cet article vous a interpellé, mis en colère, fait réfléchir ? C'est exactement pour ça qu'il a été écrit.
✊ Votre soutien, c'est le carburant de la résistance ! Contribuez sur Tipeee.
🔔Abonnez-vous à la newsletter "La Lettre du Dimanche" pour recevoir directement dans votre boîte mail les analyses que les médias dominants ne font pas. Pas de publicité, pas de compromis, juste l'engagement de regarder le monde en face. S'informer, c'est déjà résister !
👉Rejoignez également la communauté sur Facebook pour suivre les publications en temps réel, partager les articles et participer aux discussions.
Parce qu'il n'y a pas de résistance possible sans conscience collective.



Commentaires