Já nasceu o sistema de IA com potencial apocalíptico, diz o NY Times (integra)

22 de abril de 2026 § Deixe um comentário

Quando a Anthropic anunciou ao mundo, este mês, que havia desenvolvido um modelo de inteligência artificial tão poderoso que era perigoso demais para ser amplamente divulgado, a empresa nomeou 11 organizações como parceiras para ajudar na sua defesa.

Todas eram dos Estados Unidos.

Em duas semanas, o modelo, chamado Mythos, desencadeou uma corrida global sem precedentes na era da IA. O Mythos, que a Anthropic afirmou ser incrivelmente capaz de encontrar e explorar falhas ocultas no software que controla os bancos, as redes elétricas e os governos do mundo, tornou-se uma moeda de troca geopolítica — e uma empresa americana a detinha.

Líderes mundiais têm se esforçado para entender a dimensão dos riscos de segurança e como solucioná-los, com a Anthropic compartilhando o Mythos apenas com o Reino Unido, além dos Estados Unidos. O governador do Banco da Inglaterra alertou publicamente que a Anthropic pode ter encontrado uma maneira de “desvendar todo o mundo dos riscos cibernéticos”. O Banco Central Europeu começou a questionar discretamente os bancos sobre suas defesas.

O ministro das Finanças do Canadá comparou a ameaça ao fechamento do Estreito de Ormuz.

Para rivais dos EUA como a China e a Rússia, o Mythos ressaltou as consequências para a segurança de ficar para trás na corrida da IA. Um veículo de comunicação russo pró-Kremlin classificou o modelo como “pior que uma bomba nuclear”.

As reações ilustraram uma realidade sobre a qual pesquisadores de IA vêm alertando há tempos, principalmente em termos teóricos: quem liderar a construção dos modelos de IA mais poderosos obterá vantagens geopolíticas desproporcionais. Grandes avanços em IA estão começando a funcionar menos como lançamentos de produtos e mais como testes de armas, e a maioria das nações quer entender como as tecnologias funcionam e quais proteções são necessárias.

À medida que os modelos fundamentais de IA se tornam mais relevantes, o acesso a eles se torna mais geopolítico, afirmou Eduardo Levy Yeyati, ex-economista-chefe do Banco Central da Argentina e consultor regional para crescimento e IA no Banco Interamericano de Desenvolvimento. “Eu consideraria este episódio um alerta político.

Os governos não podem mais ignorar a questão.”

Até mesmo o governo dos EUA, que está envolvido em um conflito com a Anthropic sobre o uso de IA em guerras, tomou conhecimento do Mythos. Na sexta-feira, Dario Amodei, CEO da Anthropic, reuniu-se com autoridades da Casa Branca depois que alguns membros do governo Trump apontaram o potencial do novo modelo para causar estragos em sistemas de computador.

A Anthropic, com sede em São Francisco, disse ao The New York Times que estava restringindo o acesso ao Mythos devido a preocupações com segurança. A empresa tem se concentrado em compartilhar o modelo com mais de 40 organizações que fornecem tecnologia usada na manutenção de infraestruturas globais críticas, como a internet e as redes elétricas. A Anthropic nomeou 11 dessas organizações, incluindo Amazon, Apple e Microsoft, que se comprometeram a ajudar no desenvolvimento de correções de segurança para as vulnerabilidades identificadas pelo modelo.

A empresa afirmou que não tinha um cronograma imediato para expandir amplamente o acesso, mas que trabalharia com o governo dos EUA e parceiros da indústria para determinar os próximos passos. Disse ainda que foi bombardeada por ligações de governos, empresas e outras organizações buscando acesso e informações, mas que essas organizações poderiam ter diferentes níveis de conhecimento para avaliar com segurança um modelo de IA tão poderoso.
A Anthropic acrescentou que esperava que outros grupos lançassem modelos de IA com capacidades cibernéticas semelhantes de forma mais ampla dentro de pelo menos 18 meses, dando às organizações um tempo limitado para fazer as correções de segurança necessárias.

Na terça-feira, a Anthropic disse que estava investigando um relato de que usuários não autorizados obtiveram acesso a uma versão do Mythos.

A disputa pelo Mythos ocorre em um momento de mínima cooperação internacional em IA. Os governos se encaram com suspeita enquanto as corporações competem para superar as rivais.

Não existe um equivalente ao Tratado de Não Proliferação Nuclear, nem inspeções conjuntas, nem regras acordadas sobre como lidar com algo como o Mythos.

Quando a Anthropic anunciou o modelo, muitos especialistas elogiaram a cautela da empresa em limitar quem teria acesso a ele, mas expressaram preocupação com a falta de coordenação internacional para lidar com os riscos.

O Reino Unido foi a única outra nação a obter acesso. Seu Instituto de Segurança de IA, uma organização apoiada pelo governo, testou o Mythos e publicou uma avaliação independente na semana passada, confirmando que ele era capaz de realizar ciberataques complexos que nenhum modelo de IA anterior havia conseguido.

“Isso representa um avanço nas capacidades cibernéticas da IA”, disse Kanishka Narayan, ministro da IA ​​do Reino Unido, na semana passada nas redes sociais, afirmando que o país estava tomando medidas para proteger a “infraestrutura nacional crítica”.

Outros receberam menos informações. A Comissão Europeia, o braço executivo da União Europeia, composta por 27 nações, reuniu-se com a Anthropic pelo menos três vezes desde o lançamento do Mythos, disse um funcionário da UE. Mas a empresa não forneceu acesso ao modelo porque as duas partes não chegaram a um acordo sobre como compartilhá-lo com a Comissão, disse o funcionário.

Em um comunicado, a Comissão disse que estava “avaliando as possíveis implicações” do Mythos, que “exibe capacidades cibernéticas sem precedentes”.

Claudia Plattner, presidente da agência alemã de segurança cibernética, conhecida como B.I., disse que não teve acesso ao Mythos, mas reuniu-se recentemente com funcionários da Anthropic em São Francisco para obter “informações relevantes” sobre como ele funciona. As capacidades apontam para “uma mudança paradigmática na natureza das ameaças cibernéticas”, disse a Sra. Plattner em um comunicado.

Entre os rivais dos EUA, a resposta tem sido mais discreta. Apesar do recente conflito da Anthropic com o governo Trump, o Sr. Amodei deixou claro que a IA deve ser usada para defender os Estados Unidos e outras democracias e derrotar adversários autocráticos.

Nem Pequim nem Moscou fizeram uma declaração pública importante sobre o Mythos. Dentro da China, pesquisadores e a comunidade de IA em geral têm acompanhado de perto, de acordo com analistas que estudam o setor de tecnologia do país. Muitos dos bancos, empresas de energia e agências governamentais do país utilizam o mesmo software no qual o Mythos encontrou vulnerabilidades — mas, por enquanto, não têm voz ativa nas discussões.

“Para a China, acho que este é o segundo alerta depois do ChatGPT”, disse Matt Sheehan, pesquisador sênior da Carnegie Endowment for International Peace. Ele acrescentou que a política dos EUA de impedir que a China obtenha os semicondutores mais sofisticados para a construção de sistemas avançados de IA está contribuindo para ampliar a vantagem americana.

Alguns pesquisadores de IA na China expressaram, em conversas privadas, preocupação de que o país possa ficar ainda mais para trás, perdendo as vantagens que advêm da construção de um modelo fundamental primeiro, disse Jeffrey Ding, professor de ciência política da Universidade George Washington.

Liu Pengyu, porta-voz da Embaixada da China em Washington, disse que a China não estava familiarizada com os detalhes do Mythos, mas apoiava um ciberespaço pacífico, seguro e aberto.

O Mythos é o sinal mais recente de uma crescente divisão global em IA. Nações sem infraestrutura computacional poderosa e modelos de IA correm o risco de ficarem dependentes de empresas como Anthropic, Google e OpenAI, com pouca influência sobre como seus produtos são projetados e protegidos, disse Yeyati.

“A ideia de que o acesso “O fato de uma empresa poder restringir unilateralmente a inteligência artificial de ponta, usando critérios opacos e incontestáveis, deveria ser motivo de grande preocupação”, afirmou.

Paul Mozur é correspondente global de tecnologia do The Times, baseado em Taipei.
Anteriormente, escreveu sobre tecnologia e política na Ásia, a partir de Hong Kong, Xangai e
Seul.

Adam Satariano é correspondente de tecnologia do The Times, baseado em Londres.

:::::::::::::::::::

When Anthropic told the world this month that it had built an artificial intelligence model so powerful that it was too dangerous to release widely, the company named 11 organizations as partners to help mount a defense.

All were from the United States.

Within two weeks, the model, called Mythos, had set off a global scramble unlike anything yet seen in the A.I. era. Mythos, which Anthropic has said is uncannily capable of finding and exploiting hidden flaws in the software that runs the world’s banks, power grids and governments, had become a geopolitical chip — and a U.S. company held it.

World leaders have struggled to figure out the scale of the security risks and how to fix them, with Anthropic sharing Mythos with only Britain outside the United States. The Bank of England governor warned publicly that Anthropic may have found a way to
“crack the whole cyber-risk world open.” The European Central Bank began quietly questioning banks about their defenses.

Canada’s finance minister compared the threat to the closure of the Strait of Hormuz.

For U.S. rivals like China and Russia, Mythos underscored the security consequences of falling behind in the A.I. race. One Russian pro-Kremlin outlet called the model “worse than a nuclear bomb.”

The responses illustrated a reality that A.I. researchers have long warned about mostly in theoretical terms: Whoever leads in building the most powerful A.I. models will gain outsize geopolitical advantages. Major A.I. breakthroughs are beginning to function less like product launches and more like weapons tests, and most nations want to understand how the technologies work and what protections are needed.

As foundational A.I. “models become more consequential, access becomes more geopolitical, said Eduardo Levy Yeyati, a former chief economist at the Central Bank of Argentina and a regional adviser on growth and A.I. at the Inter-American Development Bank. “I would take this episode as a policy wake-up call.
Governments can no longer ignore the issue.”

Even the U.S. government, which has been embroiled in a clash with Anthropic over the use of A.I. in warfare, has taken notice of Mythos. On Friday, Dario Amodei, Anthropic’s chief executive, met with White House officials after some in the Trump administration noted the potential for the new model to wreak havoc on computer systems.

Anthropic, which is based in San Francisco, told The New York Times that it was keeping access to Mythos small because of safety and security concerns. It has focused on sharing the model with more than 40 organizations that provide technology used in maintaining critical global infrastructure like the internet or electricity grids. Anthropic named 11 of the organizations, including Amazon, Apple and Microsoft, that pledged to help develop security fixes for vulnerabilities identified by the model.

The company said that it had no immediate timeline for widely expanding access, but that it would work with the U.S. government and industry partners to determine next steps. It said that it had been bombarded by calls from governments, companies and other organizations seeking access and information, but that these organizations could have varying levels of expertise to safely evaluate such a powerful A.I. model.
Anthropic added that it expected other groups to release A.I. models with similar cyber capabilities more widely within at least 18 months, giving organizations limited time to make the necessary security fixes.

On Tuesday, Anthropic said it was investigating a report that unauthorized users gained access to a version of Mythos.

The scramble over Mythos comes at a moment of minimal international cooperation on A.I. Governments are viewing one another with suspicion as corporations race to outpace rivals.

There is no equivalent of the Nuclear Nonproliferation Treaty, no shared inspections and no agreed-upon rules for how to handle something like Mythos.

When Anthropic announced the model, many experts praised the company’s caution in limiting who gets to try the model, but expressed concerns about the lack of international coordination to deal with the risk.

Britain was the only other nation to gain access. Its A.I. Security Institute, a government-backed organization, tested Mythos and published an independent evaluation last week, confirming that it could carry out complex cyberattacks that no previous A.I. model had completed.

“This represents a step up in A.I. cyber capabilities,” Kanishka Narayan, Britain’s A.I. minister, said last week on social media, saying the country was taking steps to protect “critical national infrastructure.”

Others got less information. The European Commission, the executive branch of the 27-nation European Union, has met with Anthropic at least three times since the Mythos release, an E.U. official said. But the company has not provided access to the model because the two sides have not agreed on how to share it with the commission, the official said.

In a statement, the commission said it was “assessing possible implications” of Mythos, which “exhibits unprecedented cyber capabilities.”

Claudia Plattner, the president of Germany’s cybersecurity agency, known as B..I., said it had not received access to Mythos, but she met with Anthropic employees in San Francisco recently for “meaningful insight” into how it works. The capabilities point to “a paradigm change in the nature of cyber threats,” Ms. Plattner said in a statement.

Among U.S. rivals, the response has been more muted. Despite Anthropic’s recent clash with the Trump administration, Mr.Amodei has made clear that A.I. should be used to defend the United States and other democracies and defeat autocratic adversaries.

Neither Beijing nor Moscow has made a major public statement on Mythos. Inside China, researchers and the broader A.I. community have been watching closely, according to analysts studying the country’s tech community. Many of the country’s banks, energy companies and government agencies run on the same software in which Mythos found vulnerabilities — but for now, they have no seat at the table.

“For China I think this is the second wake-up call after ChatGPT, said Matt Sheehan, a senior fellow at the Carnegie Endowment for International Peace. He added that a U.S. policy to prevent China from obtaining the most sophisticated semiconductors for building advanced A.I. systems was helping to extend the U.S. lead.

Some A.I. researchers in China have privately expressed concern that the country could fall further behind, missing out on advantages that come with building a foundational model first, said Jeffrey Ding, a professor of political science at George Washington University.

Liu Pengyu, a spokesman for the Chinese Embassy in Washington, said China was not familiar with the specifics of Mythos but supported a peaceful, secure and open cyberspace.

Mythos is the latest sign of a growing global A.I. divide. Nations without powerful computing infrastructure and A.I. models risk being left dependent on companies like Anthropic, Google and OpenAl while having little sway over how their products are designed and safeguarded, Mr. Yeyati said.

“The idea that access to frontier A.I. is something a company can unilaterally restrict, using criteria that are opaque and unappealable, should be a real concern,” he said.

Paul Mozur is the global technology correspondent for The Times, based in Taipei.
Previously he wrote about technology and politics in Asia from Hong Kong, Shanghai and
Seoul.

Adam Satariano is a technology correspondent for The Times, based in London.

Deixe uma resposta

O que é isso?

Você está lendo no momento Já nasceu o sistema de IA com potencial apocalíptico, diz o NY Times (integra) no VESPEIRO.

Meta

Descubra mais sobre VESPEIRO

Assine agora mesmo para continuar lendo e ter acesso ao arquivo completo.

Continue reading