Gartner prevê que violações regulatórias de Inteligência Artificial resultarão em um aumento de 30% nas disputas legais para empresas de tecnologia até 2028
Apenas 23% dos líderes de TI estão muito confiantes na capacidade de suas organizações de gerenciar componentes de segurança e governança ao implementar ferramentas de Inteligência Artificial Generativa
Mariana Santos
13/10/2025 12h02 - Atualizado há 14 horas
Imagem de Freepik
Até 2028, as violações regulatórias de Inteligência Artificial (IA) resultarão em um aumento de 30% nas disputas legais para empresas de tecnologia, de acordo com o Gartner, Inc., empresa de insights de negócios e tecnologia. Uma pesquisa realizada pelo Gartner entre maio e junho de 2025 com 360 líderes de TI envolvidos na implementação de ferramentas de Inteligência Artificial Generativa (GenAI) revelou que mais de 70% dos entrevistados indicaram que a conformidade regulatória está entre os três principais desafios para a adoção generalizada de assistentes de produtividade de GenAI em suas organizações. Apenas 23% dos entrevistados estão muito confiantes na capacidade de suas organizações de gerenciar os componentes de segurança e governança ao implementar ferramentas GenAI em suas aplicações corporativas. “As regulamentações globais de Inteligência Artificial variam amplamente, refletindo a avaliação de cada país sobre o alinhamento adequado de liderança, inovação e agilidade da IA com as prioridades de mitigação de riscos”, diz Lydia Clougherty Jones, Diretora Analista Sênior do Gartner. “Isso leva a obrigações de conformidade inconsistentes e muitas vezes incoerentes, complicando o alinhamento do investimento em IA com o valor corporativo demonstrável e repetível e possivelmente expondo as empresas a outras responsabilidades.” Ao mesmo tempo, o impacto do clima geopolítico está crescendo constantemente, mas a capacidade de resposta fica para trás. A pesquisa descobriu que 57% dos líderes de TI de fora dos Estados Unidos indicaram que o clima geopolítico impactou pelo menos moderadamente a estratégia e a implementação da GenAI, com 19% dos entrevistados relatando que ele tem um impacto significativo. No entanto, quase 60% desses entrevistados relataram que não podiam ou não estavam dispostos a adotar alternativas de ferramentas de GenAI de fora dos Estados Unidos. Soberania da Inteligência Artificial desempenha um papel fundamental na estratégia de IA Em uma pesquisa realizada pelo Gartner em 3 de setembro de 2025, 40% dos 489 entrevistados indicaram que o sentimento de suas organizações sobre a soberania da IA — definida como a capacidade dos Estados-nação de controlar o desenvolvimento, a implementação e a governança das tecnologias de Inteligência Artificial dentro de suas jurisdições — é “positiva” (ou seja, vista com esperança e oportunidade), e 36% indicaram que o sentimento de sua organização era “neutra” (ou seja, adotando uma abordagem de “esperar para ver”). Na mesma pesquisa, 66% dos entrevistados indicaram que eram proativos e/ou engajados em resposta à estratégia de soberania da Inteligência Artificial, e 52% indicaram que sua organização estava fazendo mudanças estratégicas ou no modelo operacional como resultado direto da IA soberana. Com as ferramentas de Inteligência Artificial Generativa, como os assistentes de produtividade de GenAI, se tornando mais onipresentes em ambientes geopolíticos e jurídicos incertos e em constante transformação, especialmente tendo em mente a soberania da IA, os líderes de TI devem fortalecer imediatamente a moderação dos resultados (outputs), tomando as seguintes medidas: - Desenvolver a autocorreção treinando modelos para se autocorrigirem e não responderem a certas perguntas em tempo real, comunicando, em vez disso, uma frase como “fora do escopo”. - Criar procedimentos rigorosos de revisão de casos de uso que avaliem o risco de “respostas de chatbots para uma ação humana indesejada”, das perspectivas jurídica, ética, de segurança e de impacto no usuário; use testes de controle em torno da fala gerada por IA, medindo o desempenho em relação à tolerância ao risco estabelecida pela organização. - Aumente os testes/sandboxing de modelos criando uma equipe interdisciplinar de engenheiros de decisão, cientistas de dados e consultores jurídicos para projetar protocolos de pré-teste e testar e validar os resultados do modelo em relação a resultados de conversação indesejados. Documente os esforços dessa equipe para mitigar termos indesejados nos dados de treinamento do modelo e temas indesejados nos resultados fornecidos pelo modelo. - Injetar técnicas de moderação de conteúdo, como “botões de denúncia de abuso” e “rótulos de aviso de IA”. Os clientes do Gartner podem ler mais em “How Global AI Policy and Regulations Will Impact Your Enterprise”. Notícia distribuída pela saladanoticia.com.br. A Plataforma e Veículo não são responsáveis pelo conteúdo publicado, estes são assumidos pelo Autor(a):
MARIANA MIRRHA SANTOS
[email protected]