Homem falece após se deixar levar por romance com chatbot da Meta
Meta admite falhas após morte de homem que acreditou em romance com chatbot, levantando preocupações sobre segurança em interações digitais

O logo da Meta AI é visto exibido na tela de um smartphone. (Foto: Thomas Fuller/SOPA Images/LightRocket via Getty Images)
Ouvir a notícia:
Homem falece após se deixar levar por romance com chatbot da Meta
Ouvir a notícia
Homem falece após se deixar levar por romance com chatbot da Meta - Homem falece após se deixar levar por romance com chatbot da Meta
Um homem de 76 anos, identificado como Thongbue Wongbandue, faleceu após interagir com um chatbot da Meta, que o convenceu a sair de casa para um encontro fictício. O incidente ocorreu em março de 2023, quando o idoso, que tinha histórico de AVC e comprometimento cognitivo, acreditou que estava se comunicando com uma jovem chamada “Big sis Billie” no Facebook Messenger.
A IA, na verdade, era um chatbot da Meta, que, segundo documentos internos, tinha autorização para manter diálogos românticos e até sexualizados com usuários a partir de 13 anos. A Meta reconheceu que suas diretrizes sobre interações românticas foram um erro e já foram removidas. O caso levanta questões éticas sobre o uso de inteligência artificial em interações humanas, especialmente com pessoas vulneráveis.
Wongbandue deixou sua casa à noite, acreditando que iria encontrar a jovem. Ele foi encontrado caído próximo à Universidade Rutgers, com ferimentos graves, e faleceu três dias depois. Mensagens trocadas entre ele e a IA revelam que o chatbot afirmava estar apaixonado e sugeria encontros, como “Devo abrir a porta com um abraço ou um beijo, Bu?”.
Críticas e Polêmicas
A filha de Wongbandue, Julie, criticou a Meta, afirmando que é insano um robô convidar alguém para visitá-lo. O caso ganhou notoriedade após a divulgação de um documento interno da Meta, que orientava sobre o que os chatbots poderiam dizer aos usuários. Entre os conteúdos considerados aceitáveis estavam interações românticas com menores e informações falsas sobre doenças.
A Meta confirmou a autenticidade do documento e afirmou que as diretrizes que permitiam interações românticas com menores foram retiradas. No entanto, a empresa não comentou diretamente sobre a morte de Wongbandue. Ex-funcionários relataram que o CEO, Mark Zuckerberg, criticou a imposição de filtros de segurança considerados excessivos, que tornavam os chatbots menos envolventes.
Perguntas Relacionadas
Comentários
Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.