- Os Pequenos Modelos de Linguagem (SLMs) aparecem como opção para acelerar a transformação digital na América Latina, alinhando governança, custos e competitividade, com uso combinado de computação de borda e dados locais.
- Um estudo da Dell Technologies aponta que mais de noventa por cento das organizações da região enfrentam desafios de integração, o que torna os SLMs uma solução mais rápida e menos complexa do que grandes modelos.
- A proteção de informações é prioridade: mais de sessenta por cento das empresas evitam que terceiros gerenciem seus dados, e setenta e oito por cento dizem que ataques visam backups; SLMs permitem manter dados no próprio ambiente.
- O Índice Latinoamericano de Inteligência Artificial de 2025 destaca abundância de dados, mas falta disponibilidade e padronização, estimulando a necessidade de modernizar infraestrutura de TI e aumentar a capacidade de armazenamento voltado para IA.
- A computação de borda, com SLMs otimizados, viabiliza implantações locais com menor consumo de energia e latência, aproximando IA de dispositivos, sensores e gateways industriais.
Em meio à busca por transformação digital na América Latina, pequenos modelos de linguagem (SLMs) ganham espaço como alternativa viável para acelerar resultados sem onerar governança, custos ou competitividade. A tendência ganha força quando associado a arquiteturas distribuídas, computação de borda e operação próxima aos dados.
Levantamento da Dell Technologies mostra que mais de 90% das organizações latino-americanas enfrentam dificuldades de integração de IA, mantendo o estágio de adoção em fases iniciais. Os SLMs, por exigirem menos dados e menos potência, prometem avanços práticos em vez de projetos abstratos.
Mais de 60% das empresas da região valorizam governança de informações e resistência a terceiros. Em cenários de cibersegurança, 78% relatam que ataques visam comprometer backups. Modelos menores e auditáveis ajudam a manter dados sob o controle interno.
Cenário regional e dados de IA
O ILIA 2025 aponta produção de dados abundante, porém com disponibilidade e padronização limitadas, dificultando IA local. Os SLMs respondem com conjuntos menores de dados, adaptados a necessidades específicas, facilitando o desenvolvimento regional.
As cargas de IA pressionam a infraestrutura de TI: estima-se que mais de 30% dos servidores e sistemas de armazenamento precisem de modernização, com expectativa de aumento de 36% no armazenamento voltado para IA. Brasil hoje concentra grande parte do HPC regional.
Computação de borda como facilitação
A borda surge como componente-chave: SLMs otimizados para operar localmente reduzem consumo de energia, latency e dependência de nuvem. Aplicações vão desde quiosques de varejo até controle preditivo em indústrias, com maior controle operacional.
Essa abordagem favorece data centers menores, distribuídos e próximos às fontes de informação, reduzindo custos e aumentando eficiência energética. A tecnologia facilita levar IA a áreas com conectividade limitada.
Implicações para o ecossistema regional
Para a América Latina, a combinação de SLMs, computação de borda e arquiteturas distribuídas representa caminho para acelerar casos de uso sem grandes investimentos em nuvem pública. O objetivo é ampliar adoção responsável, com governança fortalecida e maior autonomia de dados.
Segundo Luis Gonçalves, presidente da Dell Technologies para a América Latina, o momento exige equilíbrio entre interesse, talento emergente e competitividade, frente a limitações de infraestrutura e governança. A adoção deve orientar-se pela realidade regional.
As informações acima são baseadas em estudo da Dell Technologies e no ILIA 2025, com foco em cenários de IA na América Latina. As informações com constatações citadas são de fontes institucionais mencionadas e não representam opiniões de veículos ou editores.
Entre na conversa da comunidade