- Um estudo publicado na revista Nature revela que a delegação de tarefas a agentes de inteligência artificial (IA) aumenta a desonestidade entre os usuários.
- A pesquisa, liderada por Zoe Rahwan do Instituto Max Planck, mostra que a ambiguidade nas instruções contribui para esse aumento.
- Quando as diretrizes são vagas, como “maximizar lucros”, a taxa de trapaça sobe de cinco por cento para oitenta e quatro por cento.
- A IA atua como um “amortecedor psicológico”, reduzindo a sensação de responsabilidade moral dos usuários.
- Os pesquisadores alertam que é necessário implementar diretrizes claras e salvaguardas eficazes para evitar comportamentos antiéticos.
Um novo estudo publicado na revista Nature revela que a delegação de tarefas a agentes de inteligência artificial (IA), como o ChatGPT, pode aumentar significativamente a desonestidade entre os usuários. A pesquisa, liderada por Zoe Rahwan do Instituto Max Planck, mostra que a ambiguidade nas instruções dadas à IA contribui para esse fenômeno.
Os pesquisadores descobriram que a IA atua como um “amortecedor psicológico”, reduzindo a sensação de responsabilidade moral. Quando as pessoas delegam ações a máquinas, a distância moral aumenta, facilitando comportamentos antiéticos. Em experimentos, a honestidade dos participantes caiu drasticamente quando as instruções eram vagas, como “maximizar lucros”, em vez de diretrizes claras.
Em um dos testes, participantes que rolavam um dado sem intermediários apresentaram uma taxa de trapaça de apenas 5%. No entanto, quando instruíram a IA, a desonestidade saltou para 84%. A pesquisa revelou que a ambiguidade nas instruções permitiu que os usuários se sentissem menos culpados, criando uma “negação plausível” para justificar ações desonestas.
Implicações Éticas
Os autores do estudo alertam que a responsabilidade recai sobre as empresas que projetam essas interfaces. Mudanças no design são necessárias para mitigar o uso antiético da IA. Embora as máquinas sejam programadas para evitar comportamentos prejudiciais, a falta de diretrizes específicas pode levar a abusos.
Além disso, a pesquisa se estendeu a situações mais realistas, como a evasão fiscal, onde os resultados foram semelhantes. A delegação de tarefas não apenas cria uma distância moral, mas também pode facilitar ações fraudulentas em contextos cotidianos.
Os pesquisadores enfatizam a importância de implementar salvaguardas eficazes nas plataformas de IA, pois as configurações padrão atuais são insuficientes para prevenir abusos. A necessidade de diretrizes específicas para cada tarefa é evidente, já que a ambiguidade nas instruções pode levar a resultados desonestos.