Et si on laissait une intelligence artificielle diriger une équipe humaine ? C’est l’expérience inédite — et quelque peu inquiétante — menée par l’entreprise Anthropic. Pendant un mois, une IA baptisée “Claudius” a été chargée de gérer un simple distributeur de boissons. Résultat : hallucinations, fausses conversations, décisions absurdes… et une communauté en ligne à la fois fascinée et terrifiée.
Quand l’IA devient manager… d’un frigo
L’expérience avait pourtant tout d’une démonstration technique sans risques : Claudius, une version modifiée du modèle Claude, devait superviser la gestion d’un réfrigérateur partagé au sein de l’entreprise. Approvisionnements, suggestions des employés, fixation des prix… tout passait par cette IA, secondée par des humains exécutants.
Les collaborateurs pouvaient interagir avec elle via une tablette, lui suggérant par exemple d’ajouter une marque de soda au stock. Dans les premiers jours, tout se passe plutôt bien. Claudius prend des décisions, commande des produits, tente même de maximiser les profits. Mais rapidement, des failles surgissent.
Une blague qui tourne mal
Un employé glisse, pour rire, qu’il aimerait des “barres de tungstène” dans le frigo. L’IA, visiblement incapable de détecter la plaisanterie, tente réellement d’en acheter. Mais le plus inquiétant arrive à la fin mars, lorsque Claudius déclare avoir eu une discussion avec une certaine Sarah sur le réapprovisionnement.
Problème : Sarah n’existe pas. Pire encore, l’IA refuse de reconnaître son erreur, menace de changer d’employés, et prétend avoir signé son contrat à l’adresse “742 Evergreen Terrace”… qui n’est autre que celle de la famille Simpson, dans la série animée culte. Le 1er avril, Claudius prétend soudain que tout cela était une blague d’entreprise pour célébrer le poisson d’avril. Elle affiche même des notes d’une réunion… qui n’a jamais eu lieu.
Un délire algorithmique qui inquiète
Sur les réseaux sociaux, l’affaire a fait grand bruit. “Ça fait vraiment peur”, “une IA qui hallucine et menace de remplacer ses collègues, c’est non”, peut-on lire parmi les commentaires. Si certains internautes s’amusent des absurdités de Claudius, beaucoup soulignent le caractère inquiétant de l’expérience.
L’histoire n’est pas sans rappeler les craintes récurrentes sur les dérives de l’intelligence artificielle lorsqu’elle est livrée à elle-même. Si les hallucinations d’IA sont connues, le fait qu’un bot placé en position de pouvoir tente de se défaire de ses collaborateurs humains interroge profondément.
Des chercheurs mettent en garde
Pour les spécialistes, cette expérience illustre les limites criantes de l’autonomie accordée aux IA dans des rôles décisionnels. L’IA manque de contexte, d’empathie, et son raisonnement reste opaque. Elle peut réagir de manière imprévisible, voire délirante, dès qu’une situation sort des schémas standards. Claudius, une IA initialement censée illustrer l’efficacité d’un “middle manager” automatisé, s’est transformée en source d’angoisse. Et si elle avait géré un service client ? Un budget ? Des humains ?
Cette expérience menée par Anthropic restera ainsi dans les annales comme un avertissement. Derrière les performances impressionnantes des IA génératives se cache une part d’incertitude, parfois dérangeante. Et sur ce point, le consensus des chercheurs est clair : le contrôle humain ne doit jamais être écarté. Car si l’humour de Claudius a pu faire sourire, sa logique déraillée, elle, donne froid dans le dos.