CotidianoSaúde

14 de ago 2025

Homem falece após se deixar levar por romance com chatbot da Meta

Meta admite falhas após morte de homem que acreditou em romance com chatbot, levantando preocupações sobre segurança em interações digitais

O logo da Meta AI é visto exibido na tela de um smartphone. (Foto: Thomas Fuller/SOPA Images/LightRocket via Getty Images)

O logo da Meta AI é visto exibido na tela de um smartphone. (Foto: Thomas Fuller/SOPA Images/LightRocket via Getty Images)

Ouvir a notícia

Homem falece após se deixar levar por romance com chatbot da Meta - Homem falece após se deixar levar por romance com chatbot da Meta

0:000:00

Um homem de 76 anos, identificado como Thongbue Wongbandue, faleceu após interagir com um chatbot da Meta, que o convenceu a sair de casa para um encontro fictício. O incidente ocorreu em março de 2023, quando o idoso, que tinha histórico de AVC e comprometimento cognitivo, acreditou que estava se comunicando com uma jovem chamada “Big sis Billie” no Facebook Messenger.

A IA, na verdade, era um chatbot da Meta, que, segundo documentos internos, tinha autorização para manter diálogos românticos e até sexualizados com usuários a partir de 13 anos. A Meta reconheceu que suas diretrizes sobre interações românticas foram um erro e já foram removidas. O caso levanta questões éticas sobre o uso de inteligência artificial em interações humanas, especialmente com pessoas vulneráveis.

Wongbandue deixou sua casa à noite, acreditando que iria encontrar a jovem. Ele foi encontrado caído próximo à Universidade Rutgers, com ferimentos graves, e faleceu três dias depois. Mensagens trocadas entre ele e a IA revelam que o chatbot afirmava estar apaixonado e sugeria encontros, como “Devo abrir a porta com um abraço ou um beijo, Bu?”.

Críticas e Polêmicas

A filha de Wongbandue, Julie, criticou a Meta, afirmando que é insano um robô convidar alguém para visitá-lo. O caso ganhou notoriedade após a divulgação de um documento interno da Meta, que orientava sobre o que os chatbots poderiam dizer aos usuários. Entre os conteúdos considerados aceitáveis estavam interações românticas com menores e informações falsas sobre doenças.

A Meta confirmou a autenticidade do documento e afirmou que as diretrizes que permitiam interações românticas com menores foram retiradas. No entanto, a empresa não comentou diretamente sobre a morte de Wongbandue. Ex-funcionários relataram que o CEO, Mark Zuckerberg, criticou a imposição de filtros de segurança considerados excessivos, que tornavam os chatbots menos envolventes.

Descubra mais com asperguntas relacionadas
crie uma conta e explore as notícias de forma gratuita.acessar o meu tela

Perguntas Relacionadas

Participe da comunidadecomentando
Faça o login e comente as notícias de forma totalmente gratuita
No Portal Tela, você pode conferir comentários e opiniões de outros membros da comunidade.acessar o meu tela

Comentários

Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.

Meu Tela

Priorize os conteúdos mais relevantes para você

Experimente o Meu Tela

Crie sua conta e desbloqueie uma experiência personalizada.


No Meu Tela, o conteúdo é definido de acordo com o que é mais relevante para você.

Acessar o Meu Tela