MENU

Gartner prevê que violações regulatórias de Inteligência Artificial resultarão em um aumento de 30% nas disputas legais para empresas de tecnologia até 2028

Apenas 23% dos líderes de TI estão muito confiantes na capacidade de suas organizações de gerenciar componentes de segurança e governança ao implementar ferramentas de Inteligência Artificial Generativa

Mariana Santos
13/10/2025 12h02 - Atualizado há 12 horas
Gartner prevê que violações regulatórias de Inteligência Artificial resultarão em um aumento de 30% nas
Imagem de Freepik
Até 2028, as violações regulatórias de Inteligência Artificial (IA) resultarão em um aumento de 30% nas disputas legais para empresas de tecnologia, de acordo com o Gartner, Inc., empresa de insights de negócios e tecnologia.
Uma pesquisa realizada pelo Gartner entre maio e junho de 2025 com 360 líderes de TI envolvidos na implementação de ferramentas de Inteligência Artificial Generativa (GenAI) revelou que mais de 70% dos entrevistados indicaram que a conformidade regulatória está entre os três principais desafios para a adoção generalizada de assistentes de produtividade de GenAI em suas organizações.
Apenas 23% dos entrevistados estão muito confiantes na capacidade de suas organizações de gerenciar os componentes de segurança e governança ao implementar ferramentas GenAI em suas aplicações corporativas.
“As regulamentações globais de Inteligência Artificial variam amplamente, refletindo a avaliação de cada país sobre o alinhamento adequado de liderança, inovação e agilidade da IA com as prioridades de mitigação de riscos”, diz Lydia Clougherty Jones, Diretora Analista Sênior do Gartner. “Isso leva a obrigações de conformidade inconsistentes e muitas vezes incoerentes, complicando o alinhamento do investimento em IA com o valor corporativo demonstrável e repetível e possivelmente expondo as empresas a outras responsabilidades.”
Ao mesmo tempo, o impacto do clima geopolítico está crescendo constantemente, mas a capacidade de resposta fica para trás. A pesquisa descobriu que 57% dos líderes de TI de fora dos Estados Unidos indicaram que o clima geopolítico impactou pelo menos moderadamente a estratégia e a implementação da GenAI, com 19% dos entrevistados relatando que ele tem um impacto significativo.
No entanto, quase 60% desses entrevistados relataram que não podiam ou não estavam dispostos a adotar alternativas de ferramentas de GenAI de fora dos Estados Unidos.

Soberania da Inteligência Artificial desempenha um papel fundamental na estratégia de IA
Em uma pesquisa realizada pelo Gartner em 3 de setembro de 2025, 40% dos 489 entrevistados indicaram que o sentimento de suas organizações sobre a soberania da IA — definida como a capacidade dos Estados-nação de controlar o desenvolvimento, a implementação e a governança das tecnologias de Inteligência Artificial dentro de suas jurisdições — é “positiva” (ou seja, vista com esperança e oportunidade), e 36% indicaram que o sentimento de sua organização era “neutra” (ou seja, adotando uma abordagem de “esperar para ver”).
Na mesma pesquisa, 66% dos entrevistados indicaram que eram proativos e/ou engajados em resposta à estratégia de soberania da Inteligência Artificial, e 52% indicaram que sua organização estava fazendo mudanças estratégicas ou no modelo operacional como resultado direto da IA ​​soberana.
Com as ferramentas de Inteligência Artificial Generativa, como os assistentes de produtividade de GenAI, se tornando mais onipresentes em ambientes geopolíticos e jurídicos incertos e em constante transformação, especialmente tendo em mente a soberania da IA, os líderes de TI devem fortalecer imediatamente a moderação dos resultados (outputs), tomando as seguintes medidas:

- Desenvolver a autocorreção treinando modelos para se autocorrigirem e não responderem a certas perguntas em tempo real, comunicando, em vez disso, uma frase como “fora do escopo”.
- Criar procedimentos rigorosos de revisão de casos de uso que avaliem o risco de “respostas de chatbots para uma ação humana indesejada”, das perspectivas jurídica, ética, de segurança e de impacto no usuário; use testes de controle em torno da fala gerada por IA, medindo o desempenho em relação à tolerância ao risco estabelecida pela organização.
- Aumente os testes/sandboxing de modelos criando uma equipe interdisciplinar de engenheiros de decisão, cientistas de dados e consultores jurídicos para projetar protocolos de pré-teste e testar e validar os resultados do modelo em relação a resultados de conversação indesejados. Documente os esforços dessa equipe para mitigar termos indesejados nos dados de treinamento do modelo e temas indesejados nos resultados fornecidos pelo modelo.
- Injetar técnicas de moderação de conteúdo, como “botões de denúncia de abuso” e “rótulos de aviso de IA”.

Os clientes do Gartner podem ler mais em “How Global AI Policy and Regulations Will Impact Your Enterprise”.
 

Notícia distribuída pela saladanoticia.com.br. A Plataforma e Veículo não são responsáveis pelo conteúdo publicado, estes são assumidos pelo Autor(a):
MARIANA MIRRHA SANTOS
[email protected]


Notícias Relacionadas »
Comentários »
Comentar

*Ao utilizar o sistema de comentários você está de acordo com a POLÍTICA DE PRIVACIDADE do site https://agitomax.com.br/.