
Para não perder espaço para as rivais Meta, Microsoft e Google, a OpenAI fechou uma parceria com a Cerebras, concorrente em ascensão da Nvidia, para adicionar 750 megawatts de capacidade computacional de IA de baixa latência à sua plataforma.
As duas empresas asseguram que essa colaboração tornará o serviço ChatGPT mais rápido.A implantação gradual dessa capacidade adicional está prevista para começar ainda este ano e com prazo para terminar em 2028.
A tecnologia da Cerebras acelera a inferência de IA ao combinar computação, memória e largura de banda massivas em um único chip de grande porte, eliminando os gargalos encontrados no hardware tradicional.
Sachin Katti, chefe de infraestrutura de computação da OpenAI, afirmou que os recursos de “inferência dedicada de baixa latência” da Cerebras proporcionariam “respostas mais rápidas, interações mais naturais e uma base mais sólida para escalar a IA em tempo real para muito mais pessoas”.
O CEO e cofundador da Cerebras, Andrew Feldman, disse que “a inferência em tempo real transformará a IA, possibilitando novas maneiras de construir e interagir” com modelos. A Bloomberg noticiou que o negócio vale mais de US$ 10 bilhões.





