Softtek Softtek
  • Our experience
  • Overview
  • Insights
  • Blog
  • Newsroom
  • Careers
  • Contact us
softtek Language Selector
ENGLISH
EUROPE / EN
ESPAÑOL
EUROPA / ES
PORTUGUÊS
中文(简体)
Search button
AI
APPROACH
INDUSTRIES
SERVICES & SOLUTIONS
TRANSCEND
Softtek GenAI
FRIDA AI for Software Engineering
Service Transformation
Portfolio Transformation
Digital Acceleration
Our Work
Agribusiness
Airlines
Automotive
Banking & Financial Services
Consumer Packaged Goods
Energy & Utilities
Fitness & Wellness
Gaming
Government & Public Sector
Higher Education
Healthcare
Industrial
Insurance
Media & Entertainment
Oil & Gas
Pharma & Beauty
Professional Sports
Restaurant & Hospitality
Retail
Technology
Telecommunications
Transportation & Logistics
Digital Solutions
Digital Optimization
Digital Sales
Data Masking Solution
IT Cost Optimization
Fan Engagement Ecosystem
Softtek Digital Enablers
DIEGO
blauLabs
Business OnDemand
Click2Sync Omnichannel
Automotive Digital Assistant
Guest Engagement
Socializer
Collaborative Commuting
Workplace Management
Application Services
Software Development
Quality Engineering
Application Management
Application Services
Cloud & DevOps
Cloud Services
IT Infrastructure
Digital Security
DevOps
Data & Automation
Data and AI
Intelligent Automation
Services Transformation
Core Modernization
Next-Gen IT Operations
Platform Services
AWS
SAP
Microsoft
Salesforce
ServiceNow
Atlassian
BlueYonder
Sustainability by Softtek
Softtek
Language selector
search button
AI
Softtek GenAI
FRIDA AI for Software Engineering
APPROACH
Service Transformation
Portfolio Transformation
Digital Acceleration
Our Work
INDUSTRIES
Agribusiness
Airlines
Automotive
Banking & Financial Services
Consumer Packaged Goods
Energy & Utilities
Fitness & Wellness
Gaming
Government & Public Sector
Higher Education
Healthcare
Industrial
Insurance
Media & Entertainment
Oil & Gas
Pharma & Beauty
Professional Sports
Restaurant & Hospitality
Retail
Technology
Telecommunications
Transportation & Logistics
SERVICES & SOLUTIONS
Digital Solutions
Digital Optimization
Digital Sales
Data Masking Solution
IT Cost Optimization
Fan Engagement Ecosystem
Softtek Digital Enablers
DIEGO
blauLabs
Business OnDemand
Click2Sync Omnichannel
Automotive Digital Assistant
Guest Engagement
Socializer
Collaborative Commuting
Workplace Management
Application Services
Software Development
Quality Engineering
Application Management
Application Services
Cloud & DevOps
Cloud Services
IT Infrastructure
Digital Security
DevOps
Data & Automation
Data and AI
Intelligent Automation
Services Transformation
Core Modernization
Next-Gen IT Operations
Platform Services
AWS
SAP
Microsoft
Salesforce
ServiceNow
Atlassian
BlueYonder
TRANSCEND
Sustainability by Softtek
Our experience
Overview
Insights
Blog
Newsroom
Careers
Contact us
ENGLISH
EUROPE / EN
ESPAÑOL
EUROPA / ES
PORTUGUÊS
中文(简体)
Softtek Blog

Quatro principais riscos na hora de implementar uma Inteligência Artificial

Autor
Author Softtek - Brasil
Publicado em:
out 23, 2024
Tempo de leitura:
out 2024
|
SHARE
Share on LinkedIn
Share on X
Share on Facebook
SHARE
Share on LinkedIn
Share on X
Share on Facebook

A implementação de Inteligência Artificial (IA), especialmente através do uso de Grandes Modelos de Linguagem (LLMs), está transformando a maneira como as organizações operam e tomam decisões. No entanto, embora poderosos, tais modelos não estão isentos de riscos significativos que podem comprometer tanto a viabilidade técnica quanto a sustentabilidade financeira dos projetos, se não forem gerenciados de forma proativa e rigorosa.
A seguir, vamos explorar quatro pilares críticos que devem ser abordados com o máximo cuidado ao implementar LLMs em qualquer organização.

1. O agnosticismo do LLM Consumido

Estamos no que poderíamos chamar de "tempo de nevoeiro", caracterizado por um ritmo acelerado de avanços tecnológicos que traz consigo uma incerteza considerável. 
Neste ambiente, LLMs estão sujeitos a constantes atualizações e melhorias. As empresas que integram esses modelos em suas operações devem estar conscientes de que o modelo que hoje é percebido como o mais avançado, pode ficar obsoleto amanhã devido ao aparecimento de versões mais eficientes, econômicas e potentes.

Este fenômeno gera um risco notável em termos de dependência tecnológica. Um projeto que hoje é rentável e eficaz, amanhã pode enfrentar desafios significativos se o LLM em que se baseia se tornar inadequado ou excessivamente caro. Esse risco é particularmente elevado em setores nos quais as margens são estreitas ou a competitividade depende da rapidez na adoção de novas tecnologias.

Por isso, é fundamental que as organizações adotem uma abordagem agnóstica em relação ao LLM utilizado. Ser agnóstico neste contexto significa que a infraestrutura tecnológica e os fluxos de trabalho devem ser projetados para suportar vários modelos de LLMs, permitindo uma troca fluida entre diferentes fornecedores ou versões sem uma reengenharia significativa do sistema. 
Para isso, é crucial implementar APIs (interfaces de programação de aplicações, em tradução literal) padronizadas e garantir que a lógica de negócios esteja desacoplada da lógica específica do LLM. Essa abordagem não apenas mitiga o risco associado à obsolescência tecnológica, mas também permite que as empresas aproveitem rapidamente novas oportunidades de mercado, adotando modelos mais eficientes ou econômicos à medida que se tornem disponíveis.

2. Governança de dados 

A governança de dados tem sido uma preocupação central na gestão da informação dentro das organizações há décadas. Com a integração de LLMs, esse aspecto adquire uma nova dimensão de complexidade e risco. Em um ambiente de dados tradicional, as políticas de acesso e controle são claramente definidas, com restrições bem implementadas sobre quem pode gerar, modificar e acessar a informação.

No entanto, a introdução de um LLM que interage com bases de dados empresariais pode ultrapassar essas barreiras de controle se não for bem gerido.
Um LLM, por sua natureza, é capaz de gerar respostas a partir da informação à qual tem acesso, o que implica riscos significativos se tal acesso não for estritamente regulado.
O problema se agrava quando se trata de informação sensível ou confidencial, que poderia ser acidentalmente exposta através das respostas geradas pelo modelo, como acontece, por exemplo, nos setores da saúde ou bancário.

O risco de comprometer a integridade e segurança dos dados é alto, e suas consequências podem ser devastadoras, incluindo perda de confiança por parte dos clientes, danos à reputação e possíveis sanções regulatórias. 
Para mitigar esses riscos, é essencial que as organizações implementem uma governança de dados robusta, especificamente adaptada para a interação com LLMs, o que inclui

•    Controle de acesso: estabelecer políticas que limitem estritamente quais dados estão disponíveis para o LLM, garantindo que somente as informações necessárias para o caso de uso específico sejam acessadas.
•    Monitoramento e auditoria: implementar sistemas de monitoramento em tempo real e auditoria periódica das interações do LLM com as bases de dados, para detectar e corrigir qualquer acesso não autorizado ou uso indevido da informação.
•    Criptografia e anonimização: nos casos em que é necessário acessar dados confidenciais, garantir que estes sejam criptografados e, quando possível, anonimizados para reduzir o risco de exposição de informações pessoais ou confidenciais.
Essa abordagem não apenas protege a organização contra possíveis vazamentos de dados, mas também garante o cumprimento das regulamentações de proteção de dados, como a LGPD (Lei Geral de Proteção de Dados Pessoais).

3. Fontes que alimentam o LLM

O valor de um LLM é, em grande parte derivado da qualidade dos dados que ele alimenta. Um risco significativo ao usar LLMs é a possibilidade de acessarem fontes de informação não verificadas, o que pode comprometer a precisão e a confiabilidade das respostas geradas. Em um ambiente de negócios, no qual decisões baseadas em IA podem ter consequências financeiras e operacionais significativas, a precisão da informação é crítica.

Permitir que um LLM tenha acesso ilimitado à internet aumenta o risco que deve ser cuidadosamente gerido. 
A internet é uma fonte de informação enorme, mas não 100% confiável. Sites como Wikipédia, fóruns ou redes sociais, embora úteis em certos contextos, contêm informações que podem não ser precisas, estar distorcidas ou desatualizadas.
A incorporação de dados imprecisos ou irrelevantes no processo de tomada de decisão pode levar a conclusões erradas, com o potencial de causar danos significativos à organização.

Para mitigar esse risco, recomenda-se implementar as seguintes estratégias:

1. Bloqueio de acesso à internet: limitar o acesso do LLM à internet, permitindo somente conexões com fontes de dados externas específicas que foram verificadas e aprovadas pela organização.
2. Conexão com fontes de dados próprias e validadas: integrar o LLM com as bases de dados internas da empresa e outras fontes de dados externas validadas que sejam relevantes e precisas. Isso garante que o LLM trabalhe com informações que foram cuidadosamente curadas e validadas pela organização.
3. Enriquecimento de dados com fontes confiáveis de terceiros: além das fontes internas, considere a integração de dados de fontes externas reconhecidas e confiáveis que possam fornecer valor adicional. Essas fontes terciárias devem ser selecionadas e validadas por sua relevância e precisão para garantir que complementam, e não comprometem, a informação interna.

Essa abordagem garante que as decisões baseadas no LLM sejam as mais precisas possíveis, reduzindo o risco de basear-se em informações errôneas.

4. Usando um banco de dados em cache

O uso de LLMs implica um custo operacional associado, uma vez que cada consulta feita ao modelo consome uma quantidade específica de tokens, o que tem impacto direto nos custos financeiros. Em um ambiente onde consultas ao LLM são frequentes, esses custos podem escalar rapidamente, especialmente se forem consultas repetitivas que poderiam ser gerenciadas de forma mais eficiente.

Uma solução eficaz para este problema é a implementação de um banco de dados em cache. Esse banco de dados atuaria como um armazenamento temporário de perguntas e respostas já processadas, permitindo que quando consultas semelhantes forem feitas no futuro, elas possam ser recuperadas diretamente do cache em vez de serem processadas novamente através do LLM.

Os benefícios de usar um banco de dados em cache são múltiplos, como redução de custos, melhoria na eficiência e manutenção da relevância e precisão por meio de mecanismos que permitam a atualização ou invalidação das respostas à medida que as circunstâncias mudem ou os dados sejam atualizados. Isso garante que as informações fornecidas permaneçam relevantes e precisas, evitando o risco de reutilizar respostas desatualizadas.

Além disso, a implementação de um cache deve incluir estratégias de gerenciamento do ciclo de vida da informação, garantindo que as respostas armazenadas sejam revisadas e atualizadas periodicamente para manter sua validade.

Conclusão

A implementação de Grandes Modelos de Linguagem (LLMs) nas organizações apresenta tanto oportunidades como desafios significativos. Para maximizar os benefícios desses modelos e minimizar os riscos, é essencial adotar uma abordagem holística que considere o agnosticismo do LLM, uma governança de dados robusta, uma cuidadosa seleção das fontes de informação e a implementação de um banco de dados em cache.

Cada um desses pilares é crítico para garantir que a adoção de LLMs seja não apenas tecnicamente viável, mas também financeiramente sustentável e alinhada com as necessidades estratégicas e de segurança da organização. As empresas que conseguirem integrar esses elementos de forma eficaz estarão em uma posição mais forte para capitalizar as vantagens da inteligência artificial, enquanto mitigam os riscos inerentes a esta tecnologia em rápida evolução.

O rigor no planejamento e execução desses aspectos não apenas protege a organização, mas também garante que o retorno do investimento em IA seja ótimo, contribuindo para o sucesso a longo prazo do projeto e da empresa como um todo.



Related posts

jul 26, 2021
Inovação frugal e a transformação sobre ESG em ações
jul 10, 2025
Transformação Digital em Seguros: como uma seguradora centenária reduziu em 75% o tempo de suas iniciativas Go to Market
jul 29, 2025
O futuro é agora: como Data Analytics e IA transformam seus dados em liderança de mercado

Let’s stay in touch!

Get Insights from our experts delivered right to your inbox!

Follow us:
Softtek LinkedIn
Softtek Twitter
Softtek Facebook
Softtek Instagram
Softtek Instagram
Follow us:
Softtek LinkedIn
Softtek Twitter
Softtek Facebook
Softtek Instagram
Softtek Instagram

© Valores Corporativos Softtek S.A. de C.V. 2025.
privacy notice
legal disclaimer
code of ethics
our policies
webmaster@softtek.com