Cloud

Por IA, chegou a hora de renovar a infraestrutura de TI

Se de um lado as possibilidades de uso da inteligência artificial (IA), especialmente a generativa, tem feito crescer os olhos das corporações, de outro, elas têm levado a um movimento de modernização da infraestrutura de TI existente. É uma necessidade para quem pensa em tirar vantagem de tudo o que a IA pode oferecer e inclui também os recentes ambientes virtualizados.

Para entender melhor o que precisa ser mudado, e de que forma, centenas de profissionais de TI se reuniram, em São Paulo, para acompanhar o Red Hat OpenShift Commons Gathering 2024. Durante o evento, executivos, técnicos da empresa e clientes mostraram como têm tirado proveito da IA e de que forma  as soluções da Red Hat têm sido utilizadas para isso. 

Muito do que foi discutido passa pelo uso da plataforma Red Hat OpenShift à frente de processos como gestão de containers, criação de agentes de IA e virtualização, por exemplo. Sim, mesmo ambientes virtualizados têm passado por processos de modernização, como lembra o gerente sênior da plataforma OpenShift para a América Latina, Bruno Machado, citando o KubeVirt como exemplo.

Criado pelo CNCF (Cloud Native Computing Foundation), o KubeVirt é um projeto de código aberto que oferece uma API de virtualização e runtime do kubernetes para definir e gerenciar máquinas virtuais. “O projeto é hoje um dos que apresenta maior crescimento em termos de código fonte e já é parte da plataforma OpenShift, trazendo opções para os usuários”, explica, reforçando que, de acordo com a Forrest, mais de 20% do workflow existente em sistemas VMware está migrando para outras plataformas. 

Além de opções de virtualização como parte da estratégia de IA da Red Hat, Machado cita ainda três pilares que a compõem. O primeiro deles é a utilização da inteligência artificial na própria plataforma, que resultou na criação do OpenShift Lightspeed, um assistente de IA que responde perguntas sobre produtos utilizando serviços LLM de back-end. “É um assistente para as equipes responsáveis por criar configurações ou automações dentro da plataforma”, diz. 


O segundo pilar é a habilitação do desenvolvimento de workloads de IA para os usuários da plataforma. Segundo Machado, a Red Hat já é especialista no fluxo de desenvolvimento para aplicações e pode fazer o mesmo para uso da IA, já que a lógica é a mesma. O foco, aqui, é levar este workloads para onde o cliente quiser: nuvens públicas ou privadas, máquinas virtuais ou físicas.

“O terceiro pilar é a disponibilização da IA generativa”, diz. Para esta frente, a companhia anunciou em maio deste ano o Red Hat Enterprise Linux AI (RHEL AI), uma plataforma de modelo fundacional que permite que os usuários desenvolvam, testem e implantem modelos de IA generativa de forma mais alinhada.

O RHEL AI une a família de large language models (LLM) Granite, da IBM Research, que é licenciada de forma open source; ferramentas de alinhamento de modelos do InstructLab baseadas na metodologia LAB (Large-scale Alignment for chatBots) e uma abordagem orientada pela comunidade para o desenvolvimento de modelos por meio do projeto InstructLab.

A solução completa é vendida como uma imagem RHEL otimizada e usada como boot para implantação em servidores individuais por toda a nuvem híbrida e está incluída como parte do Red Hat OpenShift AI, plataforma híbrida de operações de machine learning (MLOps), para operar modelos e o InstructLab em escala em ambientes de cluster distribuídos. 

“Com estas iniciativas, atendemos os dois momentos da virtualização, o rehost e a modernização. Ambos têm tido uma demanda crescente por conta dos projetos envolvendo o uso de IA”, explica Machado. O executivo conta que, para os projetos de rehost, a Red Hat tem utilizado ferramentas como o MTV (Migration Toolkit for Virtualization) para apoiar a migração, tornando-a o mais simples possível. “Na modernização, o objetivo é agregar às máquinas recursos mais modernos para habilitar um mundo novo. Normalmente se cria uma camada para expor o que existia e conectar antigos serviços”, diz.

Foco no desenvolvimento

Machado revela que o uso da plataforma OpenShift neste tipo de projeto tem crescido em função de benefícios como redução do custo de aquisição e operacionais, e da automatização de processos, o que significa minimizar o risco de adoção utilizando uma plataforma mais moderna. “São muitas empresas buscando casos de uso que envolvam a automação de tarefas repetitivas e é natural que nos procurem para entender nossas soluções”, afirma.

Não se trata apenas de simplificar e modernizar processos, mas também de aumentar sua segurança desde o desenvolvimento. “É preciso garantir que o que está sendo construído seja exatamente o que será entregue”, reforça. Aqui, a Red Hat conta com a Red Hat Trusted Software Supply Chain, uma solução que aumenta a resiliência às vulnerabilidades da cadeia de suprimentos de software. 

Como parte desta solução, dois novos serviços de nuvem – Red Hat Trusted Application Pipeline e Red Hat Trusted Content – oferecem um modo de visualização aos serviços de software e nuvem existentes da Red Hat, incluindo Quay e Advanced Cluster Security (ACS), para avançar a adoção bem-sucedida de práticas DevSecOps e incorporar a segurança ao ciclo de vida de desenvolvimento de software.

O aprimoramento no processo de desenvolvimento passa também pelo Red Hat Developer Hub, um portal de desenvolvedores, autogerenciado e personalizável baseado no Backstage.io. Suportado no Red Hat OpenShift e em outros grandes clusters Kubernetes (AKS, EKS, GKE), conta com recursos como catálogo de software único e centralizado, autoatendimento por meio de modelos e documentação técnica, além de ser extensível por plug-ins. “É mais uma opção de catálogo para os desenvolvedores criarem seus aplicativos ou agentes de IA, agilizando muito esse processo”, comenta.

Para Machado, a simplificação e o ganho de eficiência são uma necessidade neste momento em que as empresas estudam como harmonizar aplicações abertas com o mundo legado. Ele afirma que este universo continuará existindo e que boa parte dele ainda é core das empresas, mas que os assistentes de IA serão fundamentais no apoio aos profissionais de tecnologia. “Os profissionais de desenvolvimento e de infraestrutura ainda sofrem com alta carga cognitiva exigida deles, por isso quanto mais ferramentas tivermos, que nos ajudem a focar no que realmente importa, menores serão as falhas”, defende, lembrando que os assistentes estão aí para agregar e acelerar este trabalho.

Machado reconhece que as possibilidades de uso de IA estão apenas em seu início e que o mercado ainda tem muito o que aprender sobre como agregar as melhores ferramentas em seu dia a dia, mas acredita que este processo deve trazer benefícios. “A IA vai trazer um bem-estar maior para quem estiver trabalhando com tecnologia e as comunidades open source devem se tornar cada vez mais colaborativas e mais fortes”, concluiu. 

Botão Voltar ao topo