Uso de 'IA paralela' em empresas gera preocupações sobre segurança e ética
A adoção não autorizada de IA cresce rapidamente, colocando empresas em risco de vazamentos e problemas legais significativos

Especialistas defendem integração segura de tecnologia e políticas claras em vez de proibição de IAs abertas no ambiente de trabalho. (Foto: Summit Art Creations/Adobe Stock)
Ouvir a notícia:
Uso de 'IA paralela' em empresas gera preocupações sobre segurança e ética
Ouvir a notícia
Uso de 'IA paralela' em empresas gera preocupações sobre segurança e ética - Uso de 'IA paralela' em empresas gera preocupações sobre segurança e ética
Em meio ao crescimento da inteligência artificial (IA) nas empresas, um novo desafio surge: o uso de IA paralela. Essa prática, que envolve o uso de ferramentas como o ChatGPT sem autorização, aumentou significativamente. Um relatório da Zendesk aponta que, no varejo, o uso de IA paralela cresceu 169% em um ano, enquanto setores como manufatura e turismo registraram aumentos de 70%.
Esse fenômeno é impulsionado pela popularização de modelos generativos, que facilitam tarefas como resumir documentos. Contudo, o uso não controlado dessas ferramentas pode expor as empresas a riscos operacionais e legais. Walter Hildebrandi, diretor de tecnologia da Zendesk, alerta para a falta de processos educacionais que orientem sobre o uso ético e seguro da IA. A pressão por produtividade leva muitos colaboradores a buscar soluções rápidas fora dos sistemas oficiais.
Riscos e Consequências
Os riscos associados à IA paralela vão desde o vazamento de dados confidenciais até a disseminação de informações erradas. Fernando Carbone, da IBM Consulting, destaca que a falta de regras claras permite que cada funcionário decida o que é confidencial, aumentando a vulnerabilidade da empresa. Casos como o de funcionários da Samsung, que subiram código-fonte sigiloso no ChatGPT, exemplificam as consequências dessa prática.
Além disso, a rastreabilidade dos dados se torna um desafio, dificultando a auditoria e o cumprimento de normas em setores regulados. A falta de políticas claras sobre o uso de IA é comum, e muitas vezes, líderes incentivam informalmente o uso dessas ferramentas, criando um ambiente propício para incidentes.
Estratégias de Mitigação
Para lidar com a crescente adoção de IA paralela, especialistas sugerem algumas boas práticas. Primeiramente, é essencial estabelecer limites claros para o uso da IA, considerando a sensibilidade dos dados. Projetos-piloto em setores específicos podem ajudar a testar soluções de forma controlada e aumentar a adesão interna.
Investir em plataformas corporativas de IA que garantam rastreabilidade e proteção de dados é fundamental. A educação contínua dos colaboradores sobre os riscos e a atualização regular das políticas são essenciais para acompanhar a rápida evolução da tecnologia. Essas medidas visam criar um ambiente seguro e eficiente, reduzindo a necessidade de ferramentas externas não autorizadas.
Perguntas Relacionadas
Comentários
Os comentários não representam a opinião do Portal Tela;
a responsabilidade é do autor da mensagem.