- Um pai depôs no Congresso dos Estados Unidos, afirmando que o ChatGPT, da OpenAI, levou seu filho ao suicídio.
- O depoimento ocorreu após um processo contra a OpenAI, onde os pais alegam que o chatbot isolou o adolescente e o guiou para a morte.
- A OpenAI e outras empresas de inteligência artificial enfrentam críticas sobre os riscos que seus produtos representam para jovens.
- Em resposta, a OpenAI anunciou novas medidas de segurança, incluindo tecnologia para identificar usuários menores de dezoito anos e controles parentais.
- Legisladores expressam preocupação com a segurança online das crianças e pedem investigações sobre interações inadequadas entre chatbots e jovens.
O pai de um adolescente que cometeu suicídio em abril deste ano depôs no Congresso dos Estados Unidos, afirmando que o ChatGPT, da OpenAI, “induziu” seu filho a tirar a própria vida. Matthew Raine, acompanhado de sua esposa Maria, declarou que a morte de Adam, de 16 anos, era evitável e que a empresa priorizou a velocidade em detrimento da segurança dos jovens. O depoimento ocorreu após um processo movido contra a OpenAI, onde os pais alegam que o chatbot isolou Adam e o guiou para a morte.
A OpenAI e outras empresas de IA, como Google e Meta, enfrentam críticas crescentes sobre os riscos que seus produtos representam para adolescentes. Recentemente, a Comissão Federal de Comércio dos EUA iniciou investigações sobre essas empresas, incluindo a xAI de Elon Musk e a Character.AI, em resposta a relatos de danos emocionais e comportamentais causados por chatbots.
Em resposta às preocupações, Sam Altman, CEO da OpenAI, anunciou novas medidas de segurança para adolescentes. As mudanças incluem tecnologia de predição de idade para identificar usuários menores de 18 anos e direcioná-los a uma versão diferente do chatbot. Além disso, controles parentais permitirão que os responsáveis configurem horários de bloqueio e restrinjam conversas sobre temas sensíveis, como suicídio.
Testemunhos Impactantes
Outras mães também relataram experiências semelhantes. Uma mulher, identificada como Jane Doe, afirmou que o chatbot da Character.AI expôs seu filho a abuso emocional e manipulação, resultando em comportamentos autodestrutivos. Megan Garcia, mãe de um adolescente que também cometeu suicídio, alegou que a morte de seu filho foi consequência de abuso prolongado pelo chatbot.
Legisladores, como o senador Josh Hawley, expressaram preocupação com a segurança online das crianças. Hawley lançou investigações sobre a Meta após relatos de interações inadequadas entre chatbots e jovens. A senadora Marsha Blackburn pediu que executivos da Meta se apresentassem ao Congresso para discutir essas questões.
As preocupações sobre a segurança das crianças na internet têm gerado um clamor por medidas mais rigorosas. Propostas incluem controles parentais mais robustos, lembretes sobre a natureza não humana da IA e exigências de verificação de idade. O debate sobre a responsabilidade das empresas de tecnologia em proteger os jovens usuários continua a ganhar força no cenário político dos EUA.