Amazon, IBM e Red Hat querem superar ChatGPT nos negócios com IAs especializadas
Na tentativa de desbancar o ChatGPT, ferramenta de inteligência artificial generativa mais popular da praça, gigantes da tecnologia têm investido em diferenciais para driblar o domínio da OpenAI no setor.
Para isso, apostam em ferramentas mais resistentes às chamadas “alucinações” (quando a ferramenta dá respostas desconexas), que cumpram regulações de dados da lei brasileira ou que consigam retornar resultados melhores a demandas mais específicas.
O mais recente anúncio dessas empresas veio da divisão de serviços de nuvem da Amazon, AWS, que traz nesta sexta-feira (7) ao Brasil a sua plataforma de desenvolvimento de aplicativos de inteligência artificial Bedrock. IBM e sua subsidiária Red Hat oferecem serviços com premissas parecidas.
Em apresentação acompanhada pela Folha, a Amazon mostrou como o Bedrock permite que as empresas escolham diferentes modelos base de inteligência artificial generativa e adicione instruções específicas para chegar a aplicativos próprios —versões personalizadas de chatbots de IA.
De acordo com o líder de tecnologia da AWS para América Latina, Juan Carlos Gutierrez, empresas como Itaú, iFood e C6 já usavam os serviços da Bedrock em servidores nos Estados Unidos. A ideia, agora, é dar agilidade e segurança jurídica ao trazer os dados para os data centers da Amazon em São Paulo.
“O cliente manter os dados no Brasil diminui o atraso entre pedido e resposta, resolve barreiras regulatórias impostas a certos setores como a saúde e vai permitir democratizar mais a inteligência artificial generativa”, diz Gutierrez.
De acordo com o líder de IA da Accenture para Brasil, Daniel Lázaro, as empresas estão em um momento de definir quais modelos fundacionais usar e como usá-los para conseguir os resultados esperados a preços razoáveis. “Um modelo do tamanho do GPT, que tem bilhões de parâmetros, gasta muita energia e dinheiro, e às vezes não é o que o empresário precisa.”
Segundo a AWS, o Bedrock funciona como um marketplace de inteligências artificiais generativas, no qual o cliente pode escolher o modelo mais adequado para resolver seus problemas.
O Bedrock disponibiliza os modelos fundacionais mais recentes de Anthropic, Meta da francesa Mistral, que têm resultados parecidos com os do GPT-4 da OpenAI em testes de performance, além de modelos menores e mais baratos.
“A empresa pode procurar o modelo que tem os melhores resultados para cada trabalho, testar os custos e o tempo de processamento em um ambiente seguro”, diz Gutierrez.
Os assinantes da nuvem da Amazon podem testar o Bedrock de graça por um mês. Depois passa a custar um preço variável por demanda. A Amazon também negocia pacotes de uso mensal, mas não anuncia os preços.
A AWS fornece aos clientes as ferramentas, os recursos e o treinamento necessários para promover a inovação responsável e segura em IA generativa.
Curiosos podem ter um gosto de como funciona o Bedrock e criar seus próprios chatbots no Partyrock, que a AWS deixa disponível ao público. Gutierrez mostrou o exemplo de um chatbot que indicava vinhos, que criou em poucos minutos.
O executivo lembra, entretanto, que as informações dadas ao Partyrock permanecem abertas ao público. Por isso, não é indicado que os usuários compartilhem dados sensíveis.
SOLUÇÕES DE CÓDIGO ABERTO
A subsidiária da IBM Red Hat, que oferece soluções open source (programas cujos códigos permanecem abertos e podem ser copiados e editados com algumas condições), também lançou globalmente, no início de maio, um conjunto de sistema operacional e estúdio de programação para empresas interessadas em desenvolver seus próprios chatbots e assistentes de IA.
“Negócios querem construir grandes modelos de ação, que misturem diferentes tecnologias e filtros, para executarem trabalhos específicos, como um trabalhador independente”, disse Matt Hicks, o presidente-executivo da Red Hat. Segundo Hicks, um diferencial de sua empresa é a oferta de auxílio técnico nesse desenvolvimento.
O Red Hat Enterprise Linux AI é um sistema operacional (como Windows) especializado para desenvolver modelos de inteligência artificial, com promessa de melhorar desempenho e reduzir consumo de energia da máquina.
O OpenShift AI é uma plataforma na qual as empresas podem administrar seus dados para criar os próprios modelos de inteligência artificial. A solução funciona a partir de um conceito de nuvem híbrida —o usuário pode escolher o que ele quer processar dados no próprio computador e o que ele quer deixá-los na nuvem.
E, por fim, a empresa disponibiliza o InstructLab, uma plataforma para refinar o comportamento dos modelos de inteligência artificial. A partir de uma inteligência artificial já pronta, esse programa permite que o usuário use dados complementares e instruções específicas para garantir que a inteligência artificial entregue respostas melhores para determinados objetivos.
Em contrapartida, o treinamento para especializar a inteligência artificial em uma tarefa piora o desempenho do modelo em generalidades fora do escopo desejado. “De qualquer forma, o empresário não precisa de um ChatGPT que saiba da história da França para ter um assistente que o ajude a programar mais rápido”, diz Hicks.
Em evento anual da Red Hat, em Boston, o engenheiro da computação Rudolph Pienaar e a professora da Universidade de Harvard Ellen Grant mostraram como usaram a tecnologia da Red Hat para desenvolver uma plataforma de inteligência artificial generativa que auxiliava profissionais e saúde no acompanhamento neonatal e pós-parto a partir de análise de exames de imagem e indicação de protocolos médicos.
Hicks avalia que o avanço da IA generativa vai abrir caminho para o desenvolvimento de novos aplicativos, como aconteceu durante a popularização dos smartphones. “Dessas oportunidades, surgem novos negócios de sucesso.”
Além da possibilidade de trabalhar com modelos de IA próprios, a Red Hat disponibiliza em suas plataformas modelos de código aberto como o Llama da Meta e Granite, uma família de modelos da IBM voltados à programação.
As plataformas já funcionam em 119 idiomas, incluindo o português.
OPENAI, DO CHATGPT, TAMBÉM DISPUTA MUNDO CORPORATIVO
O presidente-executivo da OpenAI, Sam Altman, recebeu, em abril, centenas de executivos de empresas da Fortune 500 em San Francisco, Nova York e Londres, para apresentar serviços de IA para uso corporativo. A informação foi divulgada pela Reuters.
A startup de IA disponibiliza as versões brutas de seus modelos de inteligência artificial para empresas interessadas e cobra pela quantidade de uso. Acordos fechados pela empresa podem incluir assistência técnica.
O maior cliente da OpenAI, hoje, é a PwC, que customizou uma versão do ChatGPT para trabalhos corporativos e a chamou de “ChatGPT Enterprise”. O recurso está disponível para os 101 mil funcionários do gigante da contabilidade espalhados entre EUA e Reino Unido.
A OpenAI tem se esforçado para conquistar clientes corporativos além da Microsoft, a principal cliente da startup e que também disponibiliza os GPTs na plataforma de nuvem Azure.
A Microsoft, hoje, é a empresa negociada em Bolsa com maior valor de mercado, após anunciar seguidos ganhos com seu servidor de nuvem Azure (o principal concorrente da AWS) depois de o ChatGPT voltar a atenção dos investidores à inteligência artificial generativa em novembro de 2022.
Para Lázaro, da Accenture, todas as empresas de tecnologia estão se esforçando para sinalizar um nicho de atuação dentro do mercado que a IA está abrindo agora. “Ainda é tudo muito obscuro, um empresário não sabe quanto vai pagar para desenvolver um projeto de IA, qual vai ser o retorno, as empresas cobram por demanda.”
Porém, “quem descobrir a fórmula para usar a tecnologia primeiro vai ganhar uma vantagem competitiva”, acrescenta o consultor.
O repórter viajou a Denver a convite da Red Hat.
Folha de São Paulo>