Não há dúvidas – 2025 parece marcar a entrada na era dourada da inteligência artificial (IA). Os investimentos mais robustos das empresas em IA e GenAI estão gerando ganhos genuínos em produtividade e crescimento de receita. A pergunta que ecoa é: como garantir que a galinha dos ovos de ouro, no caso a IA, continue em atividade?
Em 2025, acredito em um cenário em que as empresas – motivadas pelas razões certas e capacitadas pelas ferramentas adequadas -, alcançarão resultados confiáveis e replicáveis com IA e GenAI ao operacionalizar essas tecnologias e demonstrar sua confiabilidade. Aqui estão minhas previsões para IA e GenAI para este ano:
As empresas perceberão que nem toda IA é generativa
À medida que a era dourada da IA se consolida, as empresas levarão mais a sério a maximização do valor comercial de seus investimentos nessa tecnologia. Ao analisar os problemas que desejam resolver, aplicarão sua experiência e aprendizados em IA para determinar quais oportunidades são melhor atendidas por GenAI e quais são mais adequadas para técnicas tradicionais de IA e aprendizado de máquina interpretável. De fato, mais de 80% de todos os sistemas de IA em produção atualmente não são de IA generativa.
Portanto, mesmo que as organizações tenham agora um conjunto variado de capacidades de IA, elas não devem tentar apertar um parafuso com um martelo. Escolher as ferramentas certas de IA exige cientistas de dados que compreendam criticamente os requisitos operacionais e de negócios e possam avaliar os pontos fortes e fracos da IA tradicional ou GenAI. Processos com o olhar e criticidade humana serão fundamentais para avaliar se um problema empresarial requer tomada de decisão determinística, aprendizado de máquina interpretável, auditoria ou outros requisitos de implementação. Escolher corretamente entre IA tradicional e GenAI será essencial para investimentos bem-sucedidos.
Tornar a IA operacional é um desafio – mas ficará mais fácil
“Operacionalização” não é exatamente uma palavra fácil de dizer, mas esse conceito, que significa “transformar ideias conceituais abstratas em observações mensuráveis”, pode ser sistematicamente alcançado quando sistemas de IA e GenAI são implementados de forma repetível e mensurável – por meio de uma combinação otimizada de pessoas, processos e tecnologia.
Muitas empresas não sabem como operacionalizar a IA ou por onde começar. Desenvolvi cinco princípios para a operacionalização da IA, que sempre formam a estrutura de qualquer implementação. Aqui está a versão resumida:
Comece com uma equipe de classe mundial: A implantação de IA precisa ser estratégica e entregue por profissionais experientes em ciência de dados que não apenas possuam credenciais acadêmicas, mas também experiência prática para aplicar IA na solução de problemas empresariais complexos.
Desenvolva IA para atender ao setor ou necessidade específica: Além da equipe de ciência de dados, toda a organização deve focar no uso de IA para resolver problemas empresariais de alto valor. Isso inclui quantificar a necessidade de negócios e, muitas vezes, criar novos algoritmos para abordá-la.
Crie algoritmos de IA para uma implantação eficiente de software: A implantação bem-sucedida de IA exige que cientistas de IA e aprendizado de máquina participem do design do software, fornecendo requisitos e compreendendo as restrições aplicadas aos algoritmos.
Ofereça execução de baixa latência e alto desempenho: Recursos de computação em nuvem bem arquitetados podem operacionalizar sistemas de decisão baseados em IA para atender as necessidades empresariais. O desempenho em tempo real requer um entendimento cuidadoso de todo o fluxo de dados, desde pré-processamento até análise em tempo real e armazenamento eficiente.
Busque incansavelmente a IA Responsável: Para que a IA gere valor para os negócios, ela deve ser ética, explicável e auditável. Esses são os conceitos-chave da IA Responsável, um conjunto de princípios e práticas que garantem resultados de alto impacto dentro de limites éticos e legais.
A responsabilidade e a explicabilidade são centrais para a IA Responsável e podem ser alcançadas com tecnologia blockchain imutável para codificar cada aspecto do desenvolvimento de modelos de IA. O mesmo blockchain de governança da IA pode ser usado para definir métricas operacionais e monitorar a IA em produção, permitindo que seu valor vá além do laboratório de ciência de dados.
O crescimento de casos de uso específicos para domínios de dados com GenAI
As empresas que levam a sério o uso de modelos de linguagem de grande escala (LLMs) e outras técnicas generativas de maneira responsável e orientada por valor o farão com base na IA Responsável – que começa com a gestão eficaz dos próprios dados. Já defendi essa visão há algum tempo e fico satisfeito em ver que pesquisadores do MIT e McKinsey & Co. a confirmaram empiricamente, afirmando na Harvard Business Review: “Para as empresas usarem bem a IA, precisam de dados precisos, pertinentes e bem organizados.”
Em 2025, os programas de GenAI serão baseados em dados ativamente curados e relevantes para domínios empresariais específicos. As empresas selecionarão e limparão os dados que seus LLMs devem aprender e removerão grandes quantidades de dados irrelevantes. Esse é um primeiro passo para o uso responsável e a obtenção de valor comercial – afinal, um LLM é apenas um reflexo dos dados nos quais foi treinado.
Empresas criarão seus próprios modelos de linguagem
Além disso, veremos cada vez mais empresas desenvolvendo seus próprios pequenos modelos de linguagem (SLMs). Surgirão modelos de linguagem focados (FLMs), projetados para mitigar o problema das “alucinações” dos LLMs, com um conjunto específico de dados e âncoras de conhecimento para garantir respostas precisas e confiáveis.
O uso generalizado de FLMs também trará outro benefício: redução do impacto ambiental da GenAI. De acordo com estimativas do setor, uma única consulta no ChatGPT consome entre 10 e 50 vezes mais energia do que uma pesquisa no Google. O Relatório da Economia Digital das Nações Unidas estima que os data centers da Google, Amazon, Meta, Apple e Microsoft (GAMAM) consumiram mais de 90 TWh de energia – mais do que países inteiros, como Finlândia, Bélgica, Chile ou Suíça. À medida que as empresas buscam maneiras de atingir metas de sustentabilidade além da compra de créditos de carbono, os FLMs podem ser uma alternativa eficaz para reduzir o consumo energético da GenAI.
Pontuações de confiança da IA facilitarão o uso da GenAI
As pontuações de confiança da IA, associadas aos FLMs, permitirão o uso seguro da GenAI. Essa métrica independente e baseada em riscos ajudará a operacionalizar a GenAI em grande escala com precisão mensurável.
Essas pontuações de confiança da IA refletem três aspectos:
A probabilidade de que os dados de contexto chave usados para treinar o FLM sejam realmente utilizados na resposta.
O nível de confiança do modelo na resposta, baseado em relevância estatística.
O alinhamento da resposta com fatos reais e não apenas com dados probabilísticos.
Olhando para frente e para trás
Estou animado para ver como essas previsões para IA e GenAI se concretizam na Era Dourada da IA. Olhando para trás, minhas previsões para 2024 se mostraram corretas:
IA auditável tornou a responsabilidade um diferencial competitivo.
Modelos menores e focados ganharam espaço.
A intervenção humana voltou a ser valorizada.
O que 2025 nos reserva? Mal posso esperar para descobrir.
Scott Zoldi, CAO da FICO.