Durant son témoignage devant une cour fédérale de Californie, le fondateur de xAI a confirmé que Grok avait bien été entraîné sur des modèles d'OpenAI, mais en partie seulement.
La bataille continue entre Elon Musk et Sam Altman, dans un procès les opposant en Californie. Le premier accuse le second de ne pas avoir respecté l'idée initiale d'OpenAI, qui était une organisation à but non lucratif, quand le second cherche à faire invalider cet argument.
Le témoignage d'Elon Musk, qui a démarré au milieu de la semaine, permet de bénéficier d'un certain éclairage sur les coulisses de l'intelligence artificielle. On a notamment appris que Grok, l'IA de Musk et de xAI, avait ainsi bénéficié des modèles d'OpenAI pour s'entraîner.
La question de la distillation des modèles
Une pratique courante dans cette industrie, précise The Verge, qui décrit la manoeuvre comme "un professeur qui transmettrait ses connaissances à un étudiant" afin que ce dernier puisse rapidement acquérir de bons résultats. Mais en posant la question à Elon Musk, l'avocat d'OpenAI cherche surtout à savoir si le milliardaire sud-africain a été bien au-delà du raisonnable.
Car cette pratique a beau être très utilisée, elle est vue par certains comme un moyen d'imiter sans trop de difficultés les modèles les plus performants de la concurrence. Et à ce sujet, Elon Musk a d'abord tenté d'éluder la question, avant de confirmer que cela avait été le cas mais "en partie" seulement. L'homme d'affaires cherche à éviter le piège tendu par son concurrent.
Cette pratique à un nom: la distillation des modèles. Elle avait été largement pointée du doigt au début de l'année 2025 quand Deepseek avait vu le jour. Le chatbot chinois de la start-up du même nom avait rivalisé dès son premier jour avec des modèles américains bien plus établis. OpenAI avait expliqué soupçonner Deepseek d'avoir un peu trop repris la structure de ses propres modèles.
Une accusation réaffirmée par Anthropic le 23 février 2026, qui a également visé d'autres IA chinoises comme Moonshot et Minimax. Pour la start-up, la distillation doit être utilisée pour améliorer un modèle existant, par exemple pour proposer une version en locale ou moins coûteuse, pas pour piller la concurrence.