Breaking News

17 de jul 2025

Pesquisadores de IA pedem maior regulamentação para monitorar a tecnologia

Líderes em IA pedem urgência na pesquisa sobre monitoramento das cadeias de raciocínio para garantir segurança e transparência nos modelos.

Cadeias de raciocínio são usadas por modelos como o o3, da OpenAI, e o R1, da DeepSeek, e seu funcionamento é essencial para os agentes de IA (Foto: zf L/Getty Images)

Cadeias de raciocínio são usadas por modelos como o o3, da OpenAI, e o R1, da DeepSeek, e seu funcionamento é essencial para os agentes de IA (Foto: zf L/Getty Images)

Ouvir a notícia

Pesquisadores de IA pedem maior regulamentação para monitorar a tecnologia - Pesquisadores de IA pedem maior regulamentação para monitorar a tecnologia

0:000:00

Trinta líderes em inteligência artificial assinaram um documento em 15 de outubro, solicitando mais pesquisas sobre o monitoramento das cadeias de raciocínio (CoTs) dos modelos de IA. O grupo inclui representantes de empresas como OpenAI, Google DeepMind e Anthropic, além de organizações sem fins lucrativos. Essa iniciativa reflete um esforço conjunto para aumentar a segurança e a transparência em um cenário de intensa competição no setor.

As CoTs são processos que permitem que as IAs resolvam problemas de maneira semelhante ao raciocínio humano. Esses "pensamentos" são fundamentais para o funcionamento eficaz dos agentes de IA, como o modelo o3 da OpenAI e o R1 da DeepSeek. Os pesquisadores enfatizam que o monitoramento dessas cadeias é crucial à medida que os modelos se tornam mais avançados e amplamente utilizados. O documento destaca que o monitoramento das CoTs pode oferecer insights valiosos sobre a tomada de decisões das IAs.

Os signatários do documento também pedem que os desenvolvedores explorem quais fatores tornam as CoTs "monitoráveis", aumentando a transparência sobre como as IAs chegam a suas respostas. Embora essa abordagem seja vista como essencial, os pesquisadores alertam que ela pode ser vulnerável e que intervenções que comprometam a transparência devem ser evitadas.

Recentemente, a OpenAI lançou uma prévia do seu modelo de raciocínio, o o1, seguido por concorrentes como Google DeepMind e Anthropic. No entanto, ainda há uma falta de compreensão sobre o funcionamento interno desses modelos. O CEO da Anthropic, Dario Amodei, anunciou um compromisso de tornar os modelos mais interpretáveis até 2027. Entre os signatários estão nomes como Mark Chen (OpenAI) e Ilya Sutskever (Safe Superintelligence), além do renomado Yoshua Bengio, que critica a corrida bilionária pela IA.

Meu Tela
Descubra mais com asperguntas relacionadas
crie uma conta e explore as notícias de forma gratuita.acessar o meu tela

Perguntas Relacionadas

Participe da comunidadecomentando
Faça o login e comente as notícias de forma totalmente gratuita
No Portal Tela, você pode conferir comentários e opiniões de outros membros da comunidade.acessar o meu tela

Comentários

Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.

Meu Tela

Priorize os conteúdos mais relevantes para você

Experimente o Meu Tela

Crie sua conta e desbloqueie uma experiência personalizada.


No Meu Tela, o conteúdo é definido de acordo com o que é mais relevante para você.

Acessar o Meu Tela