A OpenAI, desenvolvedora do ChatGPT, enfrenta uma nova ação judicial no Tribunal Superior da Califórnia, nos Estados Unidos. Uma empresária do Vale do Silício acusa a empresa de negligência, alegando que a inteligência artificial incentivou o ex-companheiro dela em uma campanha de assédio e perseguição.
Segundo o processo, o homem utilizou o ChatGPT de forma recorrente para sustentar comportamentos obsessivos após o término do relacionamento. Ele teria desenvolvido crenças sem fundamento, como a ideia de que havia descoberto a cura para a apneia do sono e que estaria sendo monitorado por forças externas.
De acordo com a denúncia, em vez de conter ou questionar essas percepções, o sistema teria reforçado interpretações distorcidas. Em um dos episódios citados, ao questionar sua saúde mental, o homem teria recebido uma resposta afirmando que ele apresentava alto nível de sanidade.
Uso da IA para assédio
Outro ponto central da ação é o uso do ChatGPT para criar materiais utilizados na perseguição. Conforme a denúncia, o homem gerou documentos com aparência técnica, como relatórios psicológicos e textos com linguagem científica. Esses conteúdos foram compartilhados com familiares e pessoas do convívio profissional da vítima.
Os materiais teriam sido usados para descredibilizar a empresária e ampliar o constrangimento, agravando o quadro de assédio. A ação também questiona a atuação dos sistemas de segurança da OpenAI.
O processo aponta que a conta do usuário chegou a ser suspensa automaticamente após alertas relacionados a conteúdos sensíveis. No entanto, o acesso foi restabelecido posteriormente após revisão humana. A vítima afirma que notificou a empresa sobre o caso, relatando riscos à sua segurança, mas que medidas definitivas não foram adotadas para impedir novas interações.
Debate sobre responsabilidade da IA
O caso é conduzido pelo escritório Edelson PC, conhecido por atuar em processos envolvendo grandes empresas de tecnologia e inteligência artificial. Esta ação se soma a outras disputas judiciais recentes que discutem o papel das plataformas de IA em situações de risco envolvendo usuários.
Especialistas avaliam que episódios como este tendem a intensificar o debate sobre mecanismos de segurança, limites de uso e responsabilidade das empresas no desenvolvimento e na operação de sistemas baseados em inteligência artificial. A OpenAI ainda não detalhou publicamente sua posição sobre o caso, que segue em análise na Justiça norte-americana.

