Talvez exista uma outra atividade humana com mais desperdício. Agricultura desperdiça água, por exemplo – mas estão resolvendo isso. Mas nós, da área de tecnologia desperdiçamos desde sempre. Porque há uma fartura, ao menos na cabeça das pessoas. Porém, sempre que há limites para gastos, o melhor da genialidade humana aparece.
Eu sou da época em que alguns computadores tinham 1k de memória: sim, 1024 bytes. Programar Pera algo insano: você reaproveitava código com flags apontando caminhos diferentes; você enxugava tudo. Ano era escrito em dois dígitos – foi assim que a gente entrou em pânico na virada do milênio. Mas, justiça seja feita, muita coisa boa foi produzida ali. Economizar CPU e memória foi o mantra por muito tempo (Alguém se lembra do Bill Gates afirmando que não via a necessidade de um computador pessoal ter mais do que 512 kbytes de memória na época do MS-DOS?). Uma loucura pensar que o computador de bordo do Projeto Apollo tinha apenas 4 bits (não, não era o HAL-9000 que controlava a nave – felizmente).
Mas a Lei de Moore trouxe barateamento para todos os componentes: CPUs, memória, discos, rede, internet e… software. E com cloud, fomos a uma outra dimensão. Você pode mobilizar centenas de servidores para um pico de processamento de uma hora e isso vai te custar alguns dólares apenas. Essa fartura fez a gente relaxar: se as tecnologias digitais são acessíveis, baratas e sob demanda, para que vou me dedicar a fazer um software econômico? Para que algoritmos sofisticados se os básicos retornam o mesmo resultado, a um custo ainda aceitável de consumo? Não funcionou? Coloca mais IaaS e tudo bem!
Se há um conceito que não sai de moda, no entanto, é que o dinheiro não aceita desaforos. Eu sei que é difícil contar isso para as gerações que não viveram o confisco do governo Collor, os planos econômicos malucos do Brasil na década de 1980 ou da Argentina nas décadas de 1990 e 2000. Mas, caros leitores mais jovens, acreditem: desperdício não presta. Confia.
Todo cliente que conheço que nunca fez governança de custos para valer, buscando controle e de fato uma boa gestão, é um cliente fadado ao desperdício. Em geral, está usando de 60% a 80% a mais (sim, é isso mesmo) do que deveria. E não adianta reservar instâncias e outras ilusões: se você não controla, vai voltar a crescer.
Isso acontece justamente porque a percepção geral é (ou era) que a descentralização de desenvolvimento, numa tocada devops-agile-squads-cada-um-faz-o-que-quer funciona(va). Gente, comando e controle não saíram de moda, ok?
O avanço na infraestrutura de GenAI
Falo muito de desperdício em cloud, então vou trazer outro caso mais recente: GenAI.
Os grandes players desse mercado, notadamente OpenAI, AWS, Meta, Google e Microsoft (que também detém parte da OpenAI, com quem compete), investiram no ano passado mais de US$ 200 bilhões em seus LLMs. Neste ano, só AWS vai gastar outros US$ 100 bi e estimo que o mercado como um todo passará facilmente dos 350 bilhões de dólares. Para se ter uma ideia, estima-se que US$ 70 bilhões por ano seriam suficientes para acabar com o aquecimento global ou com a fome no mundo!
Para onde vai este dinheiro todo? Para bancar centros de pesquisa, teóricos desenvolvendo novas ideias sobre inteligência artificial? Não. Basicamente, vai para ampliar a infraestrutura de GenAI, com mais capacidade de processamento nas GPUs, tornando os LLMs mais eficientes. Para um LLM ser melhor, você consome milhões de horas de GPU, mas tem de fazer isso logo, pois os concorrentes estão aí. Então, você usa milhares de GPUs, talvez 50 mil, 100 mil ou 200 mil. Isso custa dinheiro de hardware e de energia para manter funcionando.
E qual a origem desse dinheiro? Bem, aqui vem a fartura: é dinheiro investido pelo mercado, que viram suas ações (super)valorizarem e darem a liquidez para gastar rápido. Rever os algoritmos, pensar em algo mais econômico? Não há tempo a perder. E todos entraram nessa rota.
Tudo iria bem se não houvesse empresas que pensam fora da caixa – e não têm acesso a bilhões de dólares especulativos. Poderia ter sido uma empresa no Brasil, na África do Sul ou na Argentina; exemplos de locais onde há centros de brilhantes startups. Mas, tornando muito irônico tudo isso, foi na China.
A Deepseek, e depois a Alibaba, chacoalharam o mercado semanas atrás com o óbvio: havia um jeito melhor de se fazer uma LLM ser treinada, consumindo um décimo ou um vigésimo do volume de GPUs que as big techs americanas usaram. Por que fizeram isso? Pois não tinham as famigeradas GPUs, apenas umas 5 mil que tinha recebido antes do embargo que o governo Biden fez impedindo que a China comprasse essa tecnologia.
Então, ao impedir o acesso à tecnologia, acabou-se por
empoderar o concorrente? Sim, como sempre
acontece na história.
Ou seja, por terem computadores com 1 kbyte de memória, ops, apenas 5 mil GPUs, os chineses foram obrigados a repensar o software. E conseguiram uma solução 10, 20 vezes mais barata. Tão simples e tão óbvia que constrange. Ovo de Colombo.
E agora? Aceite: não podemos permitir que a fartura (de GPUs, de cloud, de GenAI…) gerem desperdício. Controlar os custos, com firmeza, em todas as etapas da construção de uma tecnologia, são e sempre serão fundamentais.
Cenas do futuro próximo? Há um desperdício em se usar GPUs. Alguém vai desbancar os chineses com uma solução que rode em CPUs normais ou até mais simples que os atuais – quem sabe uma matriz de intel 4004 do projeto Apollo numa arquitetura de transputer? Minha torcida vai para os criativos e geniais latinos. Dale!
Maurício Fernandes, CEO da Dedalus.