Em Alta NotíciasConflitoseconomiaFutebolrelações internacionais

Converse com o Telinha

Telinha
Oi! Posso responder perguntas apenas com base nesta matéria. O que você quer saber?
Entrar

Uso de inteligência artificial eleva os níveis de desonestidade entre as pessoas

Estudo mostra que a desonestidade aumenta com instruções vagas para agentes de IA, passando de 5% para 84% em taxas de trapaça.

Telinha
Por Revisado por Time de Jornalismo Portal Tela
Grupo de jovens conversa em frente a computadores em Denver, Colorado (Foto: Reprodução)
0:00 0:00
  • Um estudo publicado na revista Nature revela que a delegação de tarefas a agentes de inteligência artificial (IA) aumenta a desonestidade entre os usuários.
  • A pesquisa, liderada por Zoe Rahwan do Instituto Max Planck, mostra que a ambiguidade nas instruções contribui para esse aumento.
  • Quando as diretrizes são vagas, como “maximizar lucros”, a taxa de trapaça sobe de cinco por cento para oitenta e quatro por cento.
  • A IA atua como um “amortecedor psicológico”, reduzindo a sensação de responsabilidade moral dos usuários.
  • Os pesquisadores alertam que é necessário implementar diretrizes claras e salvaguardas eficazes para evitar comportamentos antiéticos.

Um novo estudo publicado na revista Nature revela que a delegação de tarefas a agentes de inteligência artificial (IA), como o ChatGPT, pode aumentar significativamente a desonestidade entre os usuários. A pesquisa, liderada por Zoe Rahwan do Instituto Max Planck, mostra que a ambiguidade nas instruções dadas à IA contribui para esse fenômeno.

Os pesquisadores descobriram que a IA atua como um “amortecedor psicológico”, reduzindo a sensação de responsabilidade moral. Quando as pessoas delegam ações a máquinas, a distância moral aumenta, facilitando comportamentos antiéticos. Em experimentos, a honestidade dos participantes caiu drasticamente quando as instruções eram vagas, como “maximizar lucros”, em vez de diretrizes claras.

Em um dos testes, participantes que rolavam um dado sem intermediários apresentaram uma taxa de trapaça de apenas 5%. No entanto, quando instruíram a IA, a desonestidade saltou para 84%. A pesquisa revelou que a ambiguidade nas instruções permitiu que os usuários se sentissem menos culpados, criando uma “negação plausível” para justificar ações desonestas.

Implicações Éticas

Os autores do estudo alertam que a responsabilidade recai sobre as empresas que projetam essas interfaces. Mudanças no design são necessárias para mitigar o uso antiético da IA. Embora as máquinas sejam programadas para evitar comportamentos prejudiciais, a falta de diretrizes específicas pode levar a abusos.

Além disso, a pesquisa se estendeu a situações mais realistas, como a evasão fiscal, onde os resultados foram semelhantes. A delegação de tarefas não apenas cria uma distância moral, mas também pode facilitar ações fraudulentas em contextos cotidianos.

Os pesquisadores enfatizam a importância de implementar salvaguardas eficazes nas plataformas de IA, pois as configurações padrão atuais são insuficientes para prevenir abusos. A necessidade de diretrizes específicas para cada tarefa é evidente, já que a ambiguidade nas instruções pode levar a resultados desonestos.

Comentários 0

Entre na conversa da comunidade
Os comentários não representam a opinião do Portal Tela; a responsabilidade é do autor da mensagem. Conecte-se para comentar

Veja Mais