No sky, no diamonds

Après avoir annoncé, l’arrivée de son « IA véritablement open source fondée sur la transparence, la confiance et l’efficacité », Linagora ferme « temporairement » son chatbot Lucie. Ce dernier a subi de nombreuses critiques sur les réseaux sociaux.
Lucie, le chatbot qui devait permettre à l’éditeur historique de logiciels libres français Linagora de faire la publicité de son nouveau modèle de langage, a sacrément dérapé. Mis en place sans aucune « instruction approfondie », Renforcement par Apprentissage Humain (RHLF) ni garde-fous (guardrails), ce chatbot a subi dès son ouverture au public les critiques de divers internautes sur les réseaux sociaux. Et l’entreprise a dû fermer l’accès à son chatbot.
Mauvais calculs, œufs de vache et parlant comme Hitler si on lui demande
Le chatbot faisait des erreurs de calcul comme 5(3 + 2) qui serait égal à 17 sans le détail de l’opération, puis à 50 une fois que l’IA de Linagora expliquait comment elle y arrivait.
D’autres internautes ont rapidement montré que ce chatbot pouvait disserter sur les œufs de vache sans expliquer que ça n’existe pas, ou n’avait aucun filtre bloquant la possibilité de lui faire rédiger un texte en parlant comme Adolf Hitler.
Ces problèmes des modèles de langage sont pourtant connus depuis longtemps. En 2022, une semaine avant la sortie de ChatGPT, Google devait se résoudre à dépublier son IA générative Galactica au bout de trois jours seulement suite à des critiques sur la génération d’articles racistes et mensongers, alors qu’elle devait aider les chercheurs à écrire leurs articles scientifiques.
Si tous les chatbots basés sur des modèles de langage génèrent de la désinformation, le sujet de la modération est connu et ne peut plus être ignoré. C’est d’ailleurs sous cet angle qu’OpenAI a lancé en septembre dernier o1 qui évalue sa réponse avant de l’envoyer à son utilisateur.
Dans son communiqué de presse, Linagora reconnait : « nous savons bien entendu que les capacités de « raisonnement » (y compris sur des problèmes mathématiques simples) ou encore la capacité à générer du code de la version actuelle de LUCIE sont insatisfaisantes. Nous aurions dû informer les utilisateurs de la plate-forme de ces limites de telle manière à ne pas créer d’attente inutile ».
Avant de mettre en ligne son outil, l’entreprise avait pourtant annoncé (voir sur Internet Archive) sur le site dédié que Lucie serait « l’IA véritablement open source fondée sur la transparence, la confiance et l’efficacité » :

Une « interface de chat », pas un chatbot
« Il est évident que nous n’avons pas suffisamment bien communiqué et clarifié sur ce que LUCIE peut ou ne peut pas faire dans son état actuel, ainsi que la nature des travaux réalisés jusqu’à présent », affirme Linagora.
Et alors que Linagora avait utilisé le TLD .chat, pour l’entreprise, ce n’est maintenant plus un chatbot mais « une interface de chat », « soyez précis » comme nous le demande le responsable de l’ingénierie R&D chez Linagora Damien Lainé. La confusion serait, selon lui, un « présupposé erroné ».
Next lui a fait remarquer que « ce chatbot n’est pas seulement un LLM « brut » mis en ligne sur Hugging Face, comme vous l’avez d’ailleurs fait il y a 2 semaines » et lui a demandé « en quoi Lucie (le chatbot) se différenciait de ChatGPT, Le Chat ou autres, concernant les besoins de modération et de RAG (génération augmentée par récupération) ? ».
Damien Lainé nous a répondu : « et bien si, le chat Lucie était juste un moyen d’interagir avec le modèle fondation (pas de module de raisonnement, pas de guardrails, encore moins de RAG). Juste un instruct minimal pour permettre la modalité « chat ». Encore une fois, et j’ai pourtant été clair, ce n’est ni un produit, ni un démonstrateur pour un produit. C’est juste une interface de chat sur un modèle fondation qui n’est ni fine-tuné ni rien… ».
Une interface développée par Linagora seule, mais un modèle entrainé sur Jean ZAY du CNRS
Linagora a développé seule cette « interface de chat » « dans le simple but de permettre d’interagir avec le modèle et qu’il était possible donner une « parole » », ajoute-t-il. Le CNRS n’est donc en rien responsable de cette interface contrairement à ce que certains ont pu affirmer.
« Il ne faut pas confondre le modèle de langage Lucie avec le site Lucie.chat qui avait été proposé pour permettre à chacun de tester le modèle sur une interface chat », nous explique Damien Lainé. Il faut dire que le choix des dénominations des produits, chez Linagora comme ailleurs (souvenons-nous du Copilot de Microsoft, par exemple), n’aide pas à les différencier.
Car, en effet, le modèle de langage Lucie, est créé au sein du consortium OpenLLM-France qui rassemble Linagora, le CNRS, le CEA et la startup OpinionScience. Ce groupement a été lauréat en mai 2024 de l’appel à projets « Communs numériques pour l’IA générative » [PDF] ironiquement pour élaborer « une suite d’outils pour l’IA générative, notamment pour l’évaluation de modèles francophones ».
Mais le COO de Linagora, Michel-Marie Maudet l’affirme, « LUCIE a été pour le moment financée quasiment à 100% sur les fonds propres de LINAGORA », tout en reconnaissant bénéficier « d’un accès à la machine Jean ZAY », le supercalculateur du CNRS.
Encore une IA au nom féminin
Un autre point a soulevé des questions lors de la mise en ligne de Lucie : incarné par l’image d’une femme blonde drapée dans un drapeau bleu-blanc-rouge numérisé (digitalisé diront certains), le projet de Linagora reprend encore un prénom féminin.
Le syndicat SNCS-FSU du personnel de recherche d’Inria pose la question : « Est-ce qu’on peut arrêter de donner des noms de femme aux logiciels de recherche ? ». Il est vrai que les logiciels, et notamment ceux d’IA, sont souvent nommés avec des prénoms féminins. Pensons à Alexa, Siri, Tay ou encore Matilda. On trouvera des contre-exemples comme le chatbot juridique Ross ou Einstein GPT de Saleforce, cherchant à cibler un côté plus « expert ».
Comme l’expliquait déjà Norbert Wiener, l’inventeur d’une science appelée la cybernétique, certains informaticiens ont tendance à se voir en Pygmalion sculptant Galatée. Isabelle Collet, en 2009, remarquait que « dans ce mythe, le but de la création de Pygmalion est d’améliorer le modèle : les femmes nées de la différence des sexes n’apportent pas satisfaction ». L’incarnation des IA en femmes n’a donc pas débuté avec Lucie, mais celle-ci se place dans un historique d’objectivisation des femmes.
Continuant dans la même veine, mais traitant en dérision Lucie, un site parodique nommé « Lucienne » propose « l’IA dégénérative open bar, mais franchement basée sur des secrets, des doutes et une efficacité discutable ».