Familiares das vítimas de um dos massacres mais letais do Canadá processaram a OpenAI e seu CEO, Sam Altman, em um tribunal dos EUA nesta quarta-feira (29), alegando que a empresa sabia, oito meses antes do ataque, que o atirador o planejava no chatbot de IA da empresa, mas não alertou a polícia.
Sete ações judiciais, apresentadas em um tribunal federal em São Francisco, acusam os líderes da OpenAI de não alertarem a polícia porque isso teria exposto o volume de conversas relacionadas à violência na ferramenta e potencialmente comprometido o caminho da empresa para uma oferta pública inicial de ações de quase US$ 1 trilhão.
O ataque de fevereiro em Tumbler Ridge, Colúmbia Britânica, matou oito pessoas, muitas delas crianças.
Recomendamos para você
Delegação do Irã abandona congresso da Fifa no Canadá após ser barrada no aeroporto e diz que seus membros foram insultados
Irã realiza amistoso contra a Costa Rica em Antalya, na Turquia, em 31 de março de 2026 Ka...
Publicado em 2026-04-29 18:32:35
Às vésperas da Copa, Irã denuncia abuso e deixa Congresso da Fifa no Canadá
Dirigentes iranianos relatam tratamento inadequado em aeroporto de Toronto e cancelam participação...
Publicado em 2026-04-29 17:03:04
Veja destaques do primeiro dia do julgamento de Elon Musk contra OpenAI
OpenAI afirma que o processo de Musk visa, na verdade, prejudicar uma concorrente da própria empres...
Publicado em 2026-04-29 14:56:32Um porta-voz da OpenAI classificou o ataque como “uma tragédia” e afirmou que a empresa tem uma política de tolerância zero para o uso de suas ferramentas para auxiliar na prática de violência.
O porta-voz disse que a empresa fortaleceu as medidas de segurança do chatbot por meio de respostas melhores a sinais de angústia, conexões aprimoradas com apoio à saúde mental, avaliação e escalonamento de ameaças mais rigorosos e detecção aprimorada de reincidentes.
Os casos fazem parte de uma onda crescente de ações judiciais que acusam empresas de inteligência artificial de não impedirem interações com chatbots que, segundo os demandantes, contribuem para automutilação, doenças mentais e violência.
Aparentemente, são as primeiras nos EUA a alegar que a ferramenta desempenhou um papel na facilitação de um massacre.
Jay Edelson, que representa os demandantes nos EUA, afirmou que pretende entrar com mais 20 ações judiciais nas próximas semanas contra a empresa, em nome de outras pessoas afetadas pelo massacre.
Ações judiciais indicam que equipe de segurança foi ignorada
Jesse Van Rootselaar, cujas interações com o chatbot estão no centro das ações judiciais, atirou em sua mãe e meio-irmão em casa antes de matar uma auxiliar de educação e cinco alunos de 12 a 13 anos em sua antiga escola, em 10 de fevereiro, segundo a polícia.
Rootselaar, que tinha 18 anos, tirou a própria vida logo em seguida.
Entre os autores da ação estão o marido da assistente educacional que foi morta, os pais de um menino de 13 anos assassinado e a família de uma menina de 12 anos que sobreviveu após ser baleada três vezes, mas permanece em terapia intensiva com graves lesões cerebrais.
De acordo com uma das queixas, os sistemas automatizados da OpenAI sinalizaram, em junho de 2025, conversas nas quais a atiradora descrevia cenários de violência armada.
Membros da equipe de segurança recomendaram o contato com a polícia após concluírem que ela representava uma ameaça crível e iminente, afirma a ação judicial, que cita um artigo do jornal americano Wall Street Journal de fevereiro sobre as discussões internas da empresa.
Mas líderes da OpenAI ignoraram a equipe de segurança e a polícia nunca foi acionada, alega a ação. A conta da atiradora foi desativada, mas ela conseguiu criar uma nova conta e continuar usando a plataforma para planejar seu ataque, afirma a ação.
Após a publicação do artigo, a empresa afirmou que a conta foi sinalizada por sistemas que identificam “usos indevidos de nossos modelos para promover atividades violentas”, mas que os problemas não atendiam aos seus critérios internos para denúncia às autoridades policiais.
Na semana passada, o primeiro-ministro da província da Colúmbia Britânica, David Eby, publicou uma carta aberta na qual Altman disse estar “profundamente arrependido” por a conta não ter sido denunciada às autoridades policiais.
Em um post de blog publicado na terça-feira (28), a OpenAI afirmou que treina seus modelos para recusar solicitações que possam “facilitar significativamente a violência” e notifica as autoridades policiais quando as conversas sugerem “um risco iminente e crível de dano a terceiros”, com especialistas em saúde mental auxiliando na avaliação de casos limítrofes.
Os processos buscam indenizações por danos não especificados e uma ordem judicial que obrigue a OpenAI a reformular suas práticas de segurança, incluindo protocolos obrigatórios de encaminhamento às autoridades policiais.
O escritório de advocacia Rice Parsons Leoni & Elliott, com sede em Vancouver, que representa os demandantes no Canadá, afirmou que optou por prosseguir com os casos na Califórnia, em parte, devido às limitações de indenização por danos morais no Canadá.
Diversos processos
Os processos surgem após a apresentação de diversas ações judiciais contra a OpenAI em tribunais estaduais e federais dos EUA nos últimos meses, sob a alegação de que a plataforma facilitou comportamentos prejudiciais e, em pelo menos um caso, um homicídio seguido de suicídio.
Embora ainda em fases iniciais, os processos obrigarão os tribunais a lidar com o papel que uma plataforma de IA pode desempenhar na promoção da violência e se a empresa pode ser responsabilizada por suas ações ou pelas ações de seus usuários.
A OpenAI negou as alegações nos processos, argumentando, no caso de homicídio seguido de suicídio, que o autor tinha um longo histórico de doença mental.
O procurador-geral da Flórida, James Uthmeier, anunciou este mês uma investigação criminal sobre o papel do chatbot em um ataque ocorrido em 2025 na Universidade Estadual da Flórida.
Evan Solomon, ministro canadense responsável pela IA, afirmou, após a apresentação das ações judiciais, que está examinando opções para regulamentar chatbots de IA e que tem trabalhado com a OpenAI para analisar seus protocolos de segurança.
Relembre o caso
O ataque a tiros em uma escola no Canadá na terça-feira (10) foi o pior em décadas no país. Ao menos seis pessoas foram encontradas mortas no local. Outras duas pessoas foram mortas em uma casa. A atiradora também morreu.
O último ataque em escola dessa magnitude no Canadá ocorreu em 1989, quando um atirador assassinou 14 mulheres na École Polytechnique, em Montreal.
O país possui uma legislação rigorosa sobre posse de armas. Ainda assim, alguns atentados ocorreram nos últimos anos e abalaram a sociedade canadense.
Em dezembro de 2022, cinco pessoas foram mortas em um tiroteio em um condomínio em um subúrbio de Toronto. Um atirador também foi baleado por um policial durante um confronto e morreu, segundo a polícia.
Em 2020, um atirador matou 22 pessoas durante um ataque a tiros na Nova Escócia, desencadeando buscas que duraram mais de 12 horas. Após o caso, o então primeiro-ministro Justin Trudeau afirmou que seu governo reforçaria as leis de controle de armas.
Em 2017, seis pessoas foram mortas em uma mesquita na cidade de Quebec, em um ataque que foi descrito na época como coordenado. Testemunhas disseram que pelo menos dois homens armados dispararam indiscriminadamente contra uma multidão de fiéis.
Em 2016, quatro pessoas morreram após um tiroteio em uma escola em uma pequena cidade na província de Saskatchewan, no norte do Canadá.
Além disso, outros casos que resultaram em diversas mortes não envolveram armas de fogo.
Em abril do ano passado, um homem atropelou uma multidão com seu carro em um festival de rua filipino em Vancouver, matando pelo menos 11 pessoas.
Na época, a polícia classificou o ocorrido como “o dia mais sombrio” da história da cidade, com vítimas fatais entre cinco e 65 anos.
(Com informações de Hadas Gold, da CNN)