SAP se posiciona como agnóstica na disputa pela Inteligência Artificial
A SAP usa inteligência artificial desde 2015. São 130 casos de uso nos quais a IA está incorporada em soluções, processos e aplicativos de ponta a ponta. Mas o lançamento do ChatGPT, há cerca de seis meses, trouxe à tona a discussão do impacto da IA generativa na sociedade e nas companhias; e levantou a questão de como a gigante alemã de software vai abraçar esta tecnologia que tem gerado debates, que vão de ameaça à humanidade à necessidade de regulamentação.
Em entrevista exclusiva ao Convergência Digital, durante o SAP Sapphire 2023, realizado nesta quinta-feira, 01/06, em São Paulo, o chief technology officer e membro do conselho executivo da SAP SE, Juergen Mueller, chamou atenção para o fato de que IA é muito mais ampla que modelos de processamento de linguagem natural e explicou que a SAP tem uma visão agnóstica com relação à adoção de motores de IA. “A nossa estratégia é ‘best of breed’, então, se for a melhor tecnologia, nós a usaremos. Temos colaborações com a Microsoft e OpenAI no ChatGPT; com a IBM para bate-papo e assistente digital, com Aleph Alpha, que é uma empresa alemã que faz processamento inteligente”, esclareceu.
Mueller disse também que a companhia tem usado IA generativa quando entende que faz sentido. Como exemplo, citou o uso de IA generativa pode substituir humanos para fazer requisições de trabalho junto ao RH, com o ChatGPT criando o rascunho de uma descrição de vagas de trabalho. Outro caso de uso é em marketing para criação de e-mails personalizados, com base no perfil do cliente.
“Somos realmente agnósticos. Neste momento, ChatGPT tem uma enorme vantagem sobre muitos outros. Mas, todos os dias, há novas notícias sobre grandes modelos de linguagem. Portanto, as coisas também estão se desenvolvendo muito rapidamente e é por isso que dissemos que estamos abertos. Temos estratégias de parceiros poderosos na área de IA generativa e IA em geral. E também temos alguns modelos próprios, como, por exemplo, no gerenciamento de faturas no SAP Concur”, Mueller.
Falando sobre a evolução da inteligência artificial dentro da SAP, Mueller pontuou que muito mudou. Antes, disse, a única maneira de fazer IA era contratando muitos cientistas de dados, com projetos longos e que muitos nunca entravam em produção. E por que isto? “Não é apenas a parte da IA, você precisa incorporar, novamente, nos produtos; você precisa ter métodos éticos sofisticados para obtenção e treinamento dos dados.Portanto, há muito em torno da IA e trabalhamos muito nisso”, enumerou. Todo o processo de desenvolvimento de inteligência artificial é complexo e passa por como se obtêm os dados, como eles são treinados, quais são os métodos usados para extrair dados e anonimizá-los de forma que não haja mais informações de identificação pessoal.
Ameaça à humanidade?
Junto com a explosão do ChatGPT e de todo burburinho que a disponibilização deste mecanismo gerou, emergiu um grande debate acerca da necessidade (ou não) de se regulamentar a inteligência artificial e, mais recentemente, se a IA pode representar uma ameaça à humanidade. Uma tese que Juergen Mueller, da SAP, refuta — pelo menos por enquanto.
“No momento, ainda não é uma ameaça à humanidade, mas o ponto é que precisa pensar no progresso exponencial que foi do ChatGPT 3 para o GPT 3,5 e o 4. Foi um progresso imenso, enorme. E, agora, se os dados de entrada computados e usados dobrarem ou quadruplicarem novamente, será outro salto quântico e acho que é por isso que as pessoas dizem que precisamos ter cuidado”, ponderou.Com relação à regulamentação, Mueller foi categórico. “Será regulamentado como armas são regulamentadas. E é importante estabelecer regras básicas com o que queremos que a IA faça e o que não queremos que ela faça? E há várias propostas. No final, haverá regulamentos, isso é claro.”
A regulamentação, na visão do executivo, precisa responder e direcionar questões como dados de entrada, como criá-los e como lidar com dados protegidos por direitos autorais, e entender os casos de uso e aplicação de IA. “Queremos, por exemplo, armas autônomas? Talvez não. Queremos robôs autônomos que ajudem as pessoas a dormir ou sair da cama? Talvez sim. Portanto, haverá regulamentação sobre casos de uso”, pontuou.
Além disso, o executivo disse acreditar que deverá haver algum tipo fiscalização e exigência de certificações, como ocorre em alguns setores como, por exemplo, na construção com os alvarás e fiscalizações. E, dependendo do alcance e do impacto da IA, da quantidade de computação que você colocar, da quantidade de dados e do caso de uso, tais formulários e certificações podem ser distintas.
Outro ponto levantado por Mueller é que seria muito perigoso ter modelos de IA que se autoreproduzissem e com capacidade de se autopreservar. “Isso seria muito perigoso e deveria ser proibido construir um módulo de IA que queira se preservar. Se tivermos um martelo, não temos problema. Um martelo não quer se preservar. Mas se aquele martelo tem autoconsciência e quer se reproduzir, então, se torna muito perigoso”, completou.