Relatório do NIST aponta deficiências e riscos nos modelos da DeepSeek em comparação aos dos EUA

Em um contexto de rivalidade crescente na área de IA, um novo relatório do Centro de Padrões e Inovação em IA (CAISI), órgão vinculado ao NIST nos Estados Unidos, lançou um olhar crítico sobre os modelos da DeepSeek.

A avaliação concluiu que, apesar do rápido avanço e adoção global, os modelos da desenvolvedora chinesa ficam atrás de seus equivalentes americanos em diversos critérios, incluindo desempenho bruto, custo-eficiência, segurança e nível de adoção comercial.

O relatório, divulgado nesta quarta-feira, faz parte da iniciativa lançada pelo governo Trump para comparar a IA dos EUA com a de “nações adversárias” e foi celebrado por autoridades como prova da supremacia contínua dos EUA em inteligência artificial.

De acordo com o CAISI, foram testados três modelos da DeepSeek – o R1, sua atualização R1-0528 e o recente V3.1 – frente a quatro modelos de referência dos EUA, entre eles versões do OpenAI GPT-5 e do Anthropic Opus 4.

Em 19 diferentes benchmarks, abrangendo linguagem natural, programação, raciocínio matemático, cibersegurança e outras áreas, o melhor modelo americano superou o melhor modelo da DeepSeek (o V3.1) em quase todos os testes.

A maior diferença observada foi em tarefas de engenharia de software e de cibersegurança, onde o líder dos EUA resolveu 20% mais tarefas do que o DeepSeek V3.1, segundo o documento preliminar.

Em benchmarks padronizados abertos, as margens foram menores, mas ainda favorecendo os modelos americanos – já em benchmarks privados do governo, a lacuna foi “significativa”, afirma o texto.

O relatório também alerta para falhas de segurança e restrições censoras nos modelos da DeepSeek, classificando-as como potenciais riscos a desenvolvedores e consumidores ocidentais.

Foram identificadas vulnerabilidades, por exemplo, em que o R1-0528 podia ser induzido a produzir informações incorretas ou viés político quando confrontado com certos inputs fora de sua base de conhecimento censurada.

Além disso, a prática da DeepSeek de filtrar ou moldar respostas para alinhar-se à narrativa do PCC foi citada como um fator que “pode comprometer a integridade das aplicações construídas sobre esses modelos”, principalmente em contextos internacionais.

O relatório sugere que a dependência de um sistema com censura embutida poderia introduzir backdoors de influência estrangeira em plataformas americanas, caso a DeepSeek fosse amplamente adotada.

Autoridades dos EUA aproveitaram os resultados para reforçar sua posição. O Secretário de Comércio, Howard Lutnick, afirmou que “a IA americana domina, com DeepSeek ficando muito atrás”, e que confiar em IA estrangeira seria “perigoso e míope”.

A CAISI enfatizou que, embora a DeepSeek tenha contribuído para a difusão global de modelos de IA (especialmente de código aberto), isso não se traduziu em liderança qualitativa, e que os EUA mantêm vantagem em inovação e segurança.

O relatório faz parte de um esforço maior do governo para estabelecer padrões e diretrizes que favoreçam tecnologias nacionais e alerta empresas americanas sobre possíveis “influências malignas” se adotarem IA de origem chinesa sem devidas precauções.

A DeepSeek não comentou oficialmente o relatório do NIST até o momento.

Analistas independentes ponderam que, embora o estudo do CAISI evidencie pontos válidos, há também considerações geopolíticas em jogo – pois reconhecer avanços da DeepSeek poderia ir contra os interesses estratégicos dos EUA.

Ainda assim, a publicação do relatório destaca como a disputa de IA entre EUA e China transcende laboratórios e mercados, atingindo também o campo de narrativas e confiança:
tão importante quanto vencer em métricas, é convencer o mundo (e principalmente os próprios americanos) de quem realmente detém a vanguarda segura e confiável da inteligência artificial.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *