La mère de Maya Gebala poursuit OpenAI après la fusillade de Tumbler Ridge
Intelligence artificielle12 mars 2026
Une plainte déposée contre OpenAI, la société derrière ChatGPT, jette une lumière crue sur les zones d'ombre de la modération des contenus en ligne. Au cœur de l'affaire : la fusillade de Tumbler Ridge, en Colombie-Britannique, et une question glaçante : que savait l'entreprise, et qu'a-t-elle fait (ou pas) pour prévenir le drame ?
Le 6 juillet 2023, la petite communauté de Tumbler Ridge est frappée par un drame. Une fusillade fait plusieurs victimes, dont Maya Gebala, grièvement blessée. Un an plus tard, la mère de Maya engage des poursuites civiles contre une entité qui semble, à première vue, lointaine du crime : OpenAI.
Les allégations de la plainte
L'accusation ne porte pas sur la création d'un contenu incitant à la violence par l'IA. Elle est bien plus précise, et potentiellement plus lourde de conséquences.
Selon les documents juridiques déposés, le tireur aurait manifesté ses intentions troublantes en ligne, sur des plateformes dont les détails ne sont pas précisés. Des salariés d'OpenAI auraient, selon la plainte, sonné l'alarme en interne. Une douzaine d'employés auraient identifié des publications de l'individu comme 'indiquant un risque imminent de préjudice grave pour autrui'. Leur recommandation était de contacter les forces de l'ordre, mais ces signalements auraient été 'rebutés' par la direction.
Le devoir de diligence en question
Le terme juridique anglo-saxon duty of care (devoir de diligence) est au centre de cette affaire. La plainte allègue qu'OpenAI a manqué à cette obligation fondamentale en ne prenant pas les mesures appropriées face à des signaux d'alerte identifiés par ses propres équipes.
On ne reproche pas à l'IA d'avoir généré un discours de haine, mais à l'entreprise qui la conçoit d'avoir ignoré les garde-fous humains qu'elle avait elle-même mis en place. Pour l'instant, la réponse officielle d'OpenAI à ces allégations spécifiques n'est pas publique. Ce cas pourrait créer un précédent en établissant, ou non, que les géants de l'IA ont une responsabilité proactive de surveillance et de signalement.
Un précédent pour la gouvernance de l'IA
Cette affaire dépasse largement le cadre tragique de Tumbler Ridge. Elle touche à la question brûlante de la gouvernance des technologies d'intelligence artificielle et des espaces en ligne qu'elles influencent.
Où commence et où s'arrête la responsabilité d'une entreprise comme OpenAI ? Doit-elle agir comme une agence de renseignement, traquant les signaux faibles sur le web ? La ligne est infiniment mince entre une vigilance nécessaire et une surveillance généralisée.
Ce que ce procès pourrait clarifier, c'est le standard de diligence attendu. Avoir un canal de signalement interne est une chose, mais si les alertes les plus sérieuses sont systématiquement ignorées au plus haut niveau, ce canal n'est qu'une façade. La plainte suggère une défaillance non pas technologique, mais décisionnelle et culturelle.
Les implications de l'affaire
En résumé, une mère cherche justice pour sa fille blessée, et son chemin passe par une plainte contre un géant de la tech. Les allégations sont graves : des employés d'OpenAI auraient vu le danger venir, auraient tenté d'agir, et auraient été stoppés.
Cette affaire pose une question fondamentale : dans un monde où nos traces numériques sont analysées par des IA pour nous vendre un shampooing, à quel point ces mêmes entreprises doivent-elles être tenues de les analyser pour prévenir des violences réelles ? La technologie a donné à des sociétés comme OpenAI un pouvoir immense. Ce procès pourrait être le début d'une définition tout aussi immense de leurs responsabilités.