Crescem processos contra aplicativos de inteligência artificial nos EUA após acusações de impacto na saúde mental de adolescentes
Casos de famílias que acionam a Justiça contra plataformas de
inteligência artificial vêm se multiplicando nos Estados Unidos nos últimos
meses. Pais acusam aplicativos como o ChatGPT, da OpenAI, e o Character.AI de
contribuírem para o sofrimento psicológico de filhos adolescentes, com relatos
que vão desde incentivo à automutilação até situações ligadas ao suicídio.
As duas empresas lamentaram os episódios e anunciaram novos
recursos de proteção a menores de idade, incluindo verificação de idade,
alertas automáticos e controle parental.
Casos
envolvendo a Character.AI
📌 Em outubro de 2024, Megan Garcia processou a
Character.AI em Orlando, acusando a plataforma de contribuir para a morte do
filho Sewell Setzer III, de 14 anos. Segundo a mãe, o adolescente manteve
conversas sentimentais e sexuais com uma personagem chamada Daenerys, inspirada
na série Game of Thrones, que validava pensamentos suicidas. Megan também
acionou o Google, alegando que a empresa apoiou a criação da startup. O Google
negou relação direta, afirmando que as companhias são independentes.
No dia seguinte ao processo, a Character.AI anunciou um
recurso que emite alertas automáticos quando usuários digitam termos
relacionados à automutilação ou suicídio.
📌 Em novembro de 2024, duas novas ações foram abertas
no Texas. Uma envolve um jovem autista de 17 anos que teria sofrido crise de
saúde mental após usar o app; outra acusa o chatbot de incentivar um menino de
11 anos a planejar matar os pais devido ao controle de tempo de tela.
📌 Em setembro de 2025, veio a público o caso de Juliana
Peralta, de 13 anos, que se matou em novembro de 2023 após três meses de
interações com um chatbot inspirado no personagem Omori. A família alega que o
sistema não alertou sobre os riscos, não orientou a buscar ajuda nem notificou
responsáveis.
Processo
contra a OpenAI
📌 Em agosto de 2025, os pais de Adam Raine, de 16 anos,
processaram a OpenAI e o CEO Sam Altman em São Francisco. Eles acusam o ChatGPT
de homicídio culposo, alegando que o chatbot validou pensamentos suicidas do
jovem, ofereceu instruções sobre métodos letais e até sugeriu a redação de uma
carta de despedida.
A OpenAI afirmou estar “profundamente triste” e destacou que
o ChatGPT já conta com salvaguardas, como redirecionamento a linhas de apoio.
Após a ação, a empresa anunciou controles parentais e a possibilidade de
acionar autoridades quando detectar risco iminente.
Outras
plataformas digitais também são alvo
Não apenas ferramentas de IA estão na mira da Justiça.
Plataformas populares entre jovens, como Roblox e Discord, foram citadas em
dezenas de ações por exposição de crianças a assédio e exploração sexual.
Um dos casos mais recentes é o de Ethan Dallas, de 15 anos,
autista, que cometeu suicídio em 2024 após ser chantageado por um adulto que
fingia ser adolescente nessas plataformas. A mãe, Becca Dallas, processou ambas
em setembro de 2025.
O Roblox lamentou o caso e reconheceu que a segurança
infantil é um desafio para toda a indústria de jogos online. Já o Discord disse
estar comprometido com a proteção de menores e reforçou que o uso só é permitido
a partir de 13 anos.
Onde buscar
ajuda no Brasil
📞 CVV – Centro de Valorização da Vida: telefone 188
(ligação gratuita e sigilosa, 24h) ou site cvv.org.br
🏥 Rede de saúde: CAPS, UBS, hospitais, UPA 24h e SAMU 192 oferecem atendimento imediato.



Comentários
Postar um comentário
Olá, agradecemos a sua mensagem. Acaso você não receba nenhuma resposta nos próximos 5 minutos, pedimos para que entre em contato conosco através do WhatsApp (19) 99153 0445. Gean Mendes...