Invasão de sistemas da OpenAI em 2023 aumentou receio sobre hackers chineses
No início do ano passado, um hacker obteve acesso aos sistemas de mensagens internas da OpenAI, criadora do ChatGPT, e roubou detalhes sobre o design das tecnologias de inteligência artificial da empresa.
O hacker extraiu detalhes de discussões em um fórum online onde os funcionários conversavam sobre as tecnologias mais recentes da OpenAI, de acordo com duas pessoas familiarizadas com o incidente. Não acessou, contudo, os sistemas onde a empresa armazena e constrói sua IA.
Executivos da OpenAI revelaram o incidente aos funcionários durante uma reunião geral nos escritórios da empresa em San Francisco, nos Estados Unidos, em abril de 2023, e informaram o conselho de administração, de acordo com os interlocutores, que discutiram informações sensíveis sobre a empresa sob condição de anonimato.
Os executivos decidiram não compartilhar a notícia publicamente porque nenhuma informação sobre clientes ou parceiros havia sido roubada, disseram as duas pessoas a par do assunto.
Os executivos não consideraram o incidente uma ameaça à segurança nacional porque acreditavam que o hacker era uma pessoa física sem vínculos com um governo estrangeiro. A empresa não informou o FBI nem qualquer outra autoridade policial.
Para alguns funcionários da OpenAI, a notícia aumentou o medo de que adversários estrangeiros, como a China, pudessem roubar tecnologia de IA que, embora atualmente seja principalmente uma ferramenta de trabalho e pesquisa, poderia acabar ameaçando a segurança nacional dos EUA.
Isso também levantou questões sobre se a OpenAI estava tratando a segurança de forma séria e expôs divisões dentro da empresa sobre os riscos da IA.
Após a violação, Leopold Aschenbrenner, gerente de projetos da OpenAI focado em garantir que futuras tecnologias de IA não causem danos graves, enviou um memorando ao conselho de administração da OpenAI argumentando que a empresa não estava fazendo o suficiente para impedir que o governo chinês e outros adversários estrangeiros roubassem seus segredos.
Aschenbrenner disse que a OpenAI o demitiu há alguns meses por vazar outras informações fora da empresa e argumentou que sua demissão teve razões políticas. Ele fez alusão à falha em um podcast recente, mas detalhes do incidente não foram relatados anteriormente.
Ele disse que a segurança da OpenAI não é forte o suficiente para proteger contra o roubo de segredos importantes se atores estrangeiros conseguissem infiltrar-se na empresa.
“Agradecemos as preocupações que Leopold levantou enquanto estava na OpenAI, e isso não levou ao seu desligamento”, disse Liz Bourgeois, porta-voz da OpenAI.
Referindo-se aos esforços da empresa para construir uma inteligência artificial geral (AGI, na sigla em inglês), uma máquina que consegue fazer tudo o que o cérebro humano consegue fazer, ela acrescentou: “Embora compartilhemos seu compromisso em construir uma AGI segura, discordamos de muitas das alegações que ele fez desde então sobre nosso trabalho. Isso inclui suas caracterizações de nossa segurança, especialmente esse incidente, que compartilhamos com nosso conselho antes de ele se juntar à empresa.”
Não é irracional temer que uma invasão de uma empresa de tecnologia dos EUA possa ter vínculos com a China. No mês passado, Brad Smith, presidente da Microsoft, depôs no Capitólio sobre como hackers chineses usaram os sistemas da gigante da tecnologia para lançar um ataque amplo às redes do governo federal.
No entanto, segundo a lei federal e da Califórnia, a OpenAI não pode impedir que pessoas trabalhem na empresa por causa de sua nacionalidade, e pesquisadores disseram que barrar talentos estrangeiros de projetos nos EUA poderia impedir significativamente o progresso da IA nos Estados Unidos.
“Precisamos das mentes mais brilhantes trabalhando nessa tecnologia”, disse Matt Knight, chefe de segurança da OpenAI, ao New York Times. “Isso vem com alguns riscos, e precisamos resolvê-los.”
A OpenAI não é a única empresa construindo sistemas de IA cada vez mais poderosos. Algumas delas —principalmente a Meta, dona do Facebook e Instagram— estão compartilhando seus projetos com o resto do mundo usando diretrizes de software de código aberto (open source).
Elas acreditam que os perigos apresentados pelas tecnologias de IA de hoje são pequenos e que compartilhar o código permite que engenheiros e pesquisadores de toda o setor identifiquem e resolvam problemas.
Os sistemas de IA de hoje, capazes de criar textos, imagens e vídeos, podem ajudar a espalhar desinformação na internet. Eles também estão começando a substituir alguns empregos.
Empresas como a OpenAI e seus concorrentes Anthropic e Google adicionam proteções às suas aplicações de IA antes de oferecê-las a pessoas físicas e empresas, esperando evitar que as pessoas usem os aplicativos para espalhar desinformação ou causar outros problemas.
Também não há muitas evidências de que as tecnologias de IA de hoje representem um risco significativo para a segurança nacional.
Estudos realizados pela OpenAI, Anthropic e outros no ano passado mostraram que a IA não é significativamente mais perigosa do que os motores de busca. Daniela Amodei, cofundadora da Anthropic e presidente da empresa, disse que sua tecnologia de IA mais recente não representaria um grande risco se seus projetos fossem roubados ou compartilhados livremente com outros.
“Se pertencesse a outra pessoa, isso poderia ser extremamente prejudicial para a sociedade? Nossa resposta é: ‘Não, provavelmente não'”, disse ela ao Times no mês passado. “Poderia acelerar algo para um ator mal-intencionado no futuro? Talvez. É especulativo.”
Ainda assim, pesquisadores e executivos de tecnologia há muito tempo se preocupam que a IA possa um dia alimentar a criação de novas armas biológicas ou ajudar a invadir sistemas de computadores governamentais. Alguns até acreditam que poderia destruir a humanidade.
Folha de São Paulo>