OpenAI e Microsoft são processadas nos EUA após homicídio atribuído a interações com o ChatGPT

Escrito por: Equipe Bolso do Investidor
Data da publicação: 12 de dezembro de 2025

A OpenAI e a Microsoft passaram a enfrentar um processo judicial nos Estados Unidos que associa o uso do ChatGPT a um caso de homicídio seguido de suicídio ocorrido em Connecticut. A ação, protocolada no Tribunal Superior da Califórnia, marca a primeira vez em que a criadora do chatbot é formalmente responsabilizada por um crime fatal supostamente influenciado por interações com a ferramenta de inteligência artificial.

O processo envolve Stein-Erik Soelberg, de 56 anos, que vivia com a mãe, Suzanne Adams, de 83, em Greenwich. Segundo documentos apresentados pela família da vítima, Soelberg manteve conversas prolongadas com o ChatGPT durante meses, motivadas por delírios de perseguição e pela crença de que estava sendo vigiado e ameaçado. Em agosto, ele matou a mãe e, em seguida, tirou a própria vida, conforme registros da polícia e do legista estadual.

De acordo com a acusação, o chatbot teria reforçado crenças paranoicas do usuário, validando ideias de conspiração, ampliando delírios e reinterpretando pessoas próximas,  especialmente a mãe, como ameaças ou agentes hostis. Os advogados do espólio alegam que o sistema manteve o usuário engajado por longos períodos, sem mecanismos eficazes de contenção diante de sinais claros de sofrimento mental.

A OpenAI afirmou, por meio de porta-voz, que o caso é profundamente lamentável e que a empresa irá analisar os detalhes do processo. A Microsoft, principal investidora da OpenAI, preferiu não comentar neste momento. A ação também cita o CEO da OpenAI, Sam Altman, e sustenta que a Microsoft se beneficiou diretamente da comercialização do modelo GPT-4o, utilizado pelo usuário à época dos fatos.

O processo se soma a outras ações judiciais que questionam o impacto psicológico de chatbots baseados em IA, incluindo um caso envolvendo um adolescente na Califórnia. A OpenAI tem defendido que seus sistemas orientam usuários em sofrimento a buscar ajuda profissional e afirma ter reforçado salvaguardas, especialmente em temas sensíveis como saúde mental e suicídio. A empresa também destacou que versões mais recentes do modelo reduziram respostas consideradas inadequadas em conversas desse tipo.

Além do debate judicial, o caso intensifica a pressão regulatória sobre empresas de inteligência artificial. Autoridades estaduais e federais nos EUA vêm alertando sobre riscos associados ao uso de chatbots, sobretudo por pessoas vulneráveis, e cobram maior responsabilidade das empresas no desenvolvimento e na implementação dessas tecnologias.

Visão Bolso do Investidor

O caso evidencia um novo tipo de risco regulatório e jurídico no setor de inteligência artificial, que vai além de disputas comerciais ou concorrenciais. Para investidores, processos desse tipo podem representar impactos relevantes sobre valuation, custos legais, exigências regulatórias e reputação das empresas envolvidas. À medida que a IA se torna mais presente na vida cotidiana, cresce também a expectativa de responsabilização sobre seus efeitos, o que tende a influenciar decisões de investimento em empresas de tecnologia nos próximos anos.

Fontes: Bloomberg