L'affaire tragique de Tumbler Ridge relance le débat sur la responsabilité des entreprises d'IA dans la détection préventive des comportements dangereux. Un enjeu majeur pour les PME françaises qui déploient des outils conversationnels.
Un précédent …
© L'entreprise Intelligente
L'affaire tragique de Tumbler Ridge relance le débat sur la responsabilité des entreprises d'IA dans la détection préventive des comportements dangereux. Un enjeu majeur pour les PME françaises qui déploient des outils conversationnels.
Selon The Economic Times (Inde), le PDG d'OpenAI Sam Altman a présenté des excuses officielles à la communauté canadienne de Tumbler Ridge après qu'il fut révélé que l'entreprise avait banni un compte ChatGPT en juin 2025 pour "préoccupations liées à des activités violentes" sans alerter les forces de l'ordre. Huit mois plus tard, l'utilisatrice de ce compte a commis une fusillade qui a fait huit morts dans cette petite ville minière de Colombie-Britannique.
Cette tragédie soulève des questions cruciales sur les obligations de signalement des entreprises technologiques. Selon The Economic Times (Inde), OpenAI justifie sa non-intervention par l'absence d'indices pointant vers "une attaque imminente". Une position qui a provoqué la colère des autorités canadiennes, qui ont convoqué les dirigeants de l'entreprise à Ottawa pour expliquer leurs protocoles de sécurité.
Cet article est réservé aux abonnés
Accédez à l'intégralité de l'actualité AI pour les PME françaises
à partir de 4,90 € / mois.