Le géant de la tech devra répondre. Sept plaintes visant le géant de l’intelligence artificielle OpenAI ont été déposées ce mercredi devant un tribunal américain, au nom des familles des victimes d’une fusillade qui a eu lieu en février au Canada.
L’entreprise américaine est critiquée pour ne pas avoir informé la police d’inquiétants messages écrits sur ChatGPT par Jesse Van Rootselaar, une femme transgenre de 18 ans, avant qu’elle ne tue huit personnes dans la ville de Tumbler Ridge, dans l’ouest du Canada.
Son compte avait été suspendu en juin 2025, mais OpenAI a déclaré ne pas avoir informé la police car rien ne laissait présager un passage à l’acte imminent. « En signaler un serait revenu à en signaler des milliers », indique un communiqué de l’équipe juridique d’OpenAI.
Les poursuites pointent aussi que l’outil d’intelligence artificielle d’Open AI explique à l’utilisateur comment il peut continuer son activité malgré la suspension de son compte. L’outil souligne alors qu’il peut « créer un nouveau compte immédiatement en utilisant une autre adresse e-mail », selon le communiqué. Or, Jesse Van Rootselaar aurait ouvert un deuxième compte ChatGPT après la suspension du premier.
L’équipe juridique américaine a déclaré travailler avec des avocats canadiens qui avaient déjà déposé une plainte au nom d’une fille de 12 ans gravement blessée dans la tuerie, déclarant que les poursuites américaines « prendront le pas » sur celle canadienne.
Le PDG a présenté ses excuses
« D’autres plaintes vont suivre. Au cours des prochaines semaines, (…) plus d’une vingtaine de plaintes seront déposées au nom des victimes de la tuerie de Tumbler Ridge. Ces actions en justice seront lancées par vagues », est-il écrit dans le communiqué.
Le PDG d’OpenAI, Sam Altman, a présenté ses excuses en avril à la ville de Tumbler Ridge, se disant « profondément désolé » que son entreprise n’a pas signalé à la police les échanges de Jesse Van Rootselaar sur ChatGPT.
VidéoUn ado se donne la mort après avoir échangé avec ChatGPT
Son entreprise affirme avoir apporté de nombreux changements afin d’identifier les situations où les conversations avec les chatbots constituent un risque crédible, pour les signaler à la police.