Opinião

Teles se dividem entre construir e comprar LLMs

Por Adlane Fellah*

Não existe uma solução única quando se trata de Grandes Modelos de Linguagem (LLMs, na sigla em inglês) no contexto da prestação de serviços e de operações e gestão. O mesmo vale para a estratégia geral de LLM.

À medida que as operadoras implementam o 5G Standalone (SA) com núcleos mais complexos, uma pergunta central e cada vez mais urgente é se essas empresas devem construir LLMs totalmente customizados, incorporando seus próprios dados e aproveitando a expertise de domínio. A alternativa a isso seria usufruir dos enormes investimentos feitos por terceiros, como os da OpenAI no ChatGPT, os da Meta no Llama, ou os do Google na família Gemini.

No segundo caso, ainda é possível ajustar os modelos e incorporar seus dados, de modo que essa abordagem, à primeira vista, certamente atrairia muitas operadoras, especialmente as menores, que carecem de recursos para construir seus próprios LLMs. O entendimento da importância dos LLMs levou um grupo de grandes operadoras de telecomunicações a se unir para fazer o trabalho pesado em nome de seus pares.

Deutsche Telekom, e& Group, Singtel, SoftBank e SK Telecom — todas declaradamente favoráveis à prática de construção por conta própria — se juntaram para lançar a Global Telco AI Alliance (GTAA) no MWC 2024. Essas companhias também anunciaram planos de estabelecer uma joint venture por meio da qual desenvolveriam LLMs especificamente adaptados às necessidades das operadoras de telecomunicações.


Esses LLMs focariam inicialmente em ajudar as operadoras a aprimorar suas interações com os clientes com o uso de assistentes digitais e chatbots. A experiência inicial com esses chatbots revelou que há muito espaço para melhorias, pois muitos têm levado a experiências frustrantes e, consequentemente, à rotatividade de clientes.

A Singtel argumenta que um LLM específico para telecomunicações ajudaria a resolver a questão das consultas de clientes, ao entender melhor a intenção do usuário do que as big techs. A Singtel também indicou que as grandes operadoras móveis podem se destacar nesse segmento emergente dos LLMs e suas aplicações, tornando-se fornecedoras para operadoras menores, em vez de apenas consumidoras da tecnologia.

No entanto, as big techs não são a única alternativa à construção por conta própria. Grandes fornecedoras de equipamentos também entraram nesse mercado, especialmente a Huawei. Vale destacar que a Huawei, em colaboração com a maior operadora móvel do mundo, a China Mobile, ganhou o prêmio “Best Moonshot Catalyst-Attendees’ Choice Award” no evento anual Digital Transformation World do TM Forum, em julho, com o projeto GenAI para AN (Redes Autônomas).

O LLM da Huawei é adaptado para telecomunicações. Por isso, alguns podem questionar por que essa roda precisa ser reinventada com tanto esforço por parte das operadoras.

Enquanto isso, outras grandes operadoras estão se aliando às big techs em relação aos LLMs. Em abril, a Orange ampliou um relacionamento existente com o Google Cloud para incorporar a IA Generativa. Isso inclui o Google Distributed Cloud (GDC), um pacote gerenciado de hardware e software para levar os serviços de IA do Google para a Edge, elaborado para trabalhos intensivos em dados. Uma das motivações foi o desejo de atender às exigências em alguns países de manter os dados locais ou em instalações próprias, o que pode ser simplificado com os recursos de IA Generativa do Google.

A Orange também busca resolver a questão da experiência do cliente, visando oferecer recomendações personalizadas mais apropriadas ou atraentes para aparelhos, planos e serviços relevantes. O GDC permite que a Orange adapte o reconhecimento de fala baseado em IA a cada país, no idioma local.

Esses exemplos destacam o argumento de que um LLM único não serve para todos. Houve uma tendência de se deixar seduzir pelo burburinho em torno da IA Generativa à medida que o número de parâmetros suportados pelos LLMs aumenta vertiginosamente.

Mas em muitas aplicações, não há necessidade de tantos parâmetros e é mais importante que todo o sistema de IA Generativa seja projetado para uma tarefa específica, como o suporte a chatbots. Um novo termo entrou em jogo, a Geração Aumentada por Recuperação (Retrieval Augmented Generation ou RAG), que surgiu da necessidade de adaptar melhor os LLMs a domínios de dados específicos quase sob demanda, em vez de extrair dos vastos reservatórios de dados nos quais foram treinados. Os LLMs podem então ser restritos a fontes de dados confiáveis.

Para que a RAG funcione, os dados relevantes devem ser preparados e indexados para uso pelo LLM, convertidos em várias representações, ou embeddings, como grandes vetores, que são conjuntos direcionados de números. A RAG pode então ser usada em dados não estruturados, geralmente texto, semiestruturados ou totalmente estruturados, como gráficos de conhecimento de entidades relacionadas, usados para metadados e incorporados à web semântica.

Como outras metodologias subjacentes à IA e ao aprendizado de máquina, os gráficos de conhecimento existem há décadas e foram integrados aos primeiros mecanismos de busca, incluindo Google, Bing, Yahoo e Alta Vista, mas foram refinados e expandidos na atual era da IA.

Os gráficos de conhecimento codificam descrições de entidades e seus relacionamentos dentro de um domínio de conhecimento e podem ser prontamente transformados em representações numéricas para IA. Eles agora atendem a uma variedade de serviços de assistentes digitais, como Siri da Apple e Alexa da Amazon, e a redes sociais como LinkedIn e Facebook.

A ascensão da RAG parece apontar para modelos específicos de domínio, mas estes ainda podem ser fornecidos por terceiros. Seja como for, muitas discussões no futuro vão girar em torno da RAG no contexto dos LLMs e da IA Generativa, pois será necessário enfrentar o desafio da precisão e evitar “alucinações de IA” ou “ilusões” — essencialmente a apresentação de informações falsas como fatos. Isso não se limita ao domínio digital, mas a ilusão é que uma resposta é confiável porque foi gerada por IA.

A RAG fundamentalmente combina o poder criativo da IA Generativa com a recuperação de informações de alta precisão. Quando seres humanos fazem pesquisas, eles vasculham múltiplas fontes para identificar e idealmente eliminar vieses associados a qualquer uma delas – ou pelo menos deveriam fazer isso. A RAG é uma tentativa de digitalizar esses princípios.

Adlane Fellah é analista e investidor do setor de telecomunicações, com 25 anos de experiência na área. Ele é autor de importantes artigos sobre Wi-Fi, 5G e tendências tecnológicas em vários segmentos, como o residencial, o empresarial e a Indústria 4.0. Fellah é um administrador certificado de rede wireless (CWNA) e especialista certificado em tecnologia wireless (CWTS). Também atua regularmente como jurado das premiações Glomo Awards (GSMA), Fierce, Glotel e WBA Awards. (Para mais informações, acesse www.maravedis-bwa.com). 

Botão Voltar ao topo