Bolha de IA é real e crescimento acelerado vai cobrar acerto de contas
A afirmação é de Dan Stanzione, diretor-executivo do Texas Advanced Computing Center (TACC) e vice-presidente associado de pesquisa da Universidade do Texas. “Ou o setor cresce de forma extremamente acelerada ou teremos que desacelerar o ritmo de expansão nos próximos anos”.

“O armazenamento — qualquer tipo de armazenamento eletrônico digital que já tivemos — começou, basicamente, a guardar dados em computadores por volta de 1947. Desde então, o preço caiu a cada ano, seguindo uma curva semelhante à da Lei de Moore, até cerca de 2023. Foi quando a incrível explosão de demanda, impulsionada pelo ChatGPT e pela IA, fez com que os preços disparassem novamente. Isso não representa, na verdade, uma mudança na tecnologia em si; é apenas o reflexo de uma demanda imensa em todo o mundo.”
Assim, Dan Stanzione, diretor-executivo do Texas Advanced Computing Center (TACC) e vice-presidente associado de pesquisa da Universidade do Texas, em Austin, descreveu o momento que a indústria de tecnologia passa hoje em decorrência da ascensão da inteligência artificial. E ele foi além: “Antes do ChatGPT, vendiam-se cerca de US$ 80 bilhões em computadores por ano; agora, esse volume está mais próximo dos US$ 500 bilhões. As cadeias de suprimentos precisam reagir a isso. Tudo depende da velocidade com que a receita gerada pela IA crescer. Ela terá que crescer muito rapidamente para que esse cenário se sustente”.
Stanzione disse acreditar que, talvez em mais um ou dois anos, as coisas se estabilizem. “A meu ver, já entramos em território de bolha neste momento: ou atingimos uma receita de US$ 3 trilhões ou 4 trilhões nos próximos três ou quatro anos ou teremos que enfrentar um certo acerto de contas”, profetizou, em encontro com jornalistas do Brasil e México em visita ao TACC.
Para ilustrar — e embasar — o que disse, Stanzione citou que, atualmente, existem cerca de 70 gigawatts de capacidade instalada em data centers dedicados à IA. Todo o espaço do TACC com supercomputadores, incluindo o Frontera, (leia aqui matéria sobre visita do Convergência Digital ao TACC) consome cerca de 10 megawatts e o novo espaço — para o Horizon — consumirá mais 20 megawatts. Somando tudo, chega-se a cerca de 70 gigawatts em todo o mundo. “Mesmo considerando os preços do Texas — onde a eletricidade é bastante barata —, calculei que o custo anual apenas com energia elétrica gira em torno de US$ 60 bilhões. Ou seja, somente para manter a operação funcionando, o custo com energia é de US$ 60 bilhões por ano”, assinalou.
Como comparação, a OpenAI passou de praticamente zero receita em 2022 para cerca US$ 20 bilhões em receita anualizada em 2025, segundo a Reuters. Sua concorrente, a Anthropic, seguiu uma trajetória semelhante, atingindo cerca de US$ 9 bilhões em receita anualizada.
Isso significa que essas empresas terão que crescer muito rapidamente para conseguir acompanhar essa curva de custos com inteligência artificial generativa. “E vale lembrar que esse cálculo não inclui o custo do endividamento, a depreciação dos servidores, o custo efetivo de aquisição de todo o hardware, a mão de obra humana ou quaisquer outros fatores envolvidos”, acrescentou o diretor-executivo do TACC.
Para Stanzione, a conclusão é clara: “ou o setor cresce de forma extremamente acelerada ou teremos que desacelerar o ritmo de expansão nos próximos anos. É claro que o crescimento vai acontecer — disso, praticamente não há dúvida. Mas será que o fato de esse mercado crescer para US$ 1 trilhão ou US$ 3 trilhões afetará — e determinará a velocidade — da bolha da IA? Na minha opinião, sim”.
Uma das justificativas é que a demanda aumentou muito rapidamente, a ponto da capacidade de fabricar e implementar os equipamentos não conseguir acompanhar o ritmo. E a receita gerada não é suficiente para manter o ritmo de expansão. “Embora eu acredite firmemente que a IA será um negócio fantástico — e que continuará a crescer muito rapidamente —, mesmo que esse crescimento atinja 1.000% ao ano, será difícil sustentar essa curva de demanda”, explicou.
A questão colocada por Dan Stanzione é matemática: ele questiona se a IA aberta terá vendas suficientes para pagar os cerca de US$ 1,3 trilhão e os juros para todos os investidores de capital de risco que investiram nela. “Na escala que estão construindo, se crescerem de, digamos, US$ 10 bilhões no ano passado para US$ 100 bilhões em dois anos, ainda não será dinheiro suficiente dos US$ 1,3 trilhão, certo? Então, eles poderiam ser dez vezes maiores e ainda assim não conseguir pagar todos os investidores, certo? Então, a questão é: eles vão chegar a US$ 100 bilhões, US$ 300 bilhões ou US$ 500 bilhões?”, frisou.
Sem ignorar o crescimento exponencial da IA e seu enorme impacto no mundo, Stanzione comparou o momento como o início da internet, quando havia fibra óptica em excesso para a taxa de crescimento da demanda, as empresas de telecomunicações fabricavam equipamentos de rede em larga escala e muitas das empresas pontocom faziam isso.
“O problema foi que elas presumiam que a demanda por fibra cresceria 30% ao ano, quando na verdade cresceu cerca de 15% ao ano. Acabou que a internet se tornou um negócio gigantesco, muito importante e onipresente, mesmo assim várias empresas faliram no final dos anos 1990 e início dos anos 2000, porque o investimento era muito alto”, comparou. De fato, são situações muito parecidas.
Impactos na computação em nuvem
Falando sobre o ambiente dos data centers, Stanzione assinalou que a infraestrutura física mudou bastante, em decorrência da inteligência artificial. Antes de as grandes nuvens comerciais começarem a oferecer serviços de IA, era comum construir racks de baixa densidade com refrigeração a ar, sem dar muita importância à interconexão entre os gabinetes.
Geralmente, ele explicou, saíam apenas alguns cabos de fibra óptica do topo do gabinete, já que — mais uma vez — as cargas de trabalho operavam de forma relativamente independente umas das outras. “Mas, hoje em dia — mesmo no contexto da inferência de modelos de grande escala, no que costumamos chamar de fábricas de IA (onde o foco está na quantidade de tokens que podem ser processados por segundo) —, a regra é utilizar racks de altíssima densidade com refrigeração líquida por imersão, combinados com redes de interconexão de altíssima densidade”, detalhou.
Trata-se de uma abordagem já adotada no segmento de computação de alto desempenho (HPC, na sigla em inglês). “A interconexão InfiniBand, por exemplo, foi criada originalmente com outro propósito: ela foi concebida para atuar como uma rede de armazenamento (storage network). No entanto, no final da década de 1990, acabamos apropriando-nos dessa tecnologia para utilizá-la na computação de alto desempenho. Então, por volta de 2018, isso se tornou uma tecnologia de IA”, disse, referindo-se à ‘message passing interface’ (MPI) usada pelo TACC para realizar a comunicação de dados. O TACC também começou a utilizar placas gráficas com refrigeração líquida há 12 anos.
As unidades de processamento gráfico (GPUs) e muitos dos chips de inferência de propósito específico operam com uma precisão muito baixa. Isso ocorre porque, no contexto das redes neurais, essa precisão já é suficiente para determinar, por exemplo, a intensidade da conexão entre dois neurônios dentro da rede; essa tarefa pode ser realizada com apenas alguns bits de precisão.
Stanzione explicou que as simulações científicas tradicionais ainda necessitam de computação de alta precisão, com uma precisão de 32 ou 64 bits. “Sendo assim, estamos tendo que nos adaptar, implementando diversas alterações nos algoritmos e utilizando métodos de emulação para aproveitar esses chips de IA também para fins de HPC. Mas, se observarmos fisicamente os data centers, eles são agora muito parecidos.”
Roberta Prescott viajou a Austin, no Texas (EUA), a convite da Dell.





