Há poucos dias, a startup chinesa DeepSeek chocou o mercado ao lançar um modelo de inteligência artificial (IA) com desempenho comparável a rivais ocidentais, como o ChatGPT — e por uma fração do custo. Além do impacto tecnológico, que colocou a China no mapa desse setor, outro elemento que acendeu o alerta global foram as rachaduras na segurança desse novo sistema.
O desenvolvimento de IAs sempre levanta dilemas éticos, e diferentes empresas propõem soluções variadas para cada situação. Agora, com o aplicativo da DeepSeek liderando os rankings de downloads em dispositivos ao redor do mundo, começam a surgir questionamentos sobre possíveis falhas e vulnerabilidades da tecnologia.
- LEIA MAIS: Meta de até 4.900% de lucro com o ‘GPT das criptomoedas’: conheça ativo que surfa a inteligência artificial e pode te enriquecer em 2025
Apenas nos últimos dias, usuários conseguiram burlar barreiras éticas da IA, pesquisadores identificaram brechas de segurança, e tanto empresas quanto entidades governamentais questionaram a proteção dos dados fornecidos à tecnologia, além de levantarem acusações de plágio.
De software de sequestro de dados à como fazer bomba
Um aspecto aparentemente positivo da nova IA pode ser uma de suas maiores falhas, de acordo com um artigo da Cybersecurity News.
A DeepSeek R1, versão mais recente da tecnologia, possui um processo de raciocínio transparente, que permite aos usuários acompanhar cada etapa da lógica do modelo. No entanto, essa transparência deixa a IA altamente vulnerável à ação de agentes mal-intencionados.
Sem muito esforço, uma equipe da empresa de cibersegurança Kela conseguiu fazer com que a DeepSeek gerasse códigos e scripts de ransomwares — softwares que sequestram dados e arquivos utilizando criptografia em troca de dinheiro para o desbloqueio —, além de malwares, os populares “vírus de computador”, que podem prejudicar dispositivos eletrônicos de diversas formas.
Além disso, a DeepSeek R1 não se limita à criação de softwares criminosos. O modelo também foi capaz de gerar instruções detalhadas para criar explosivos que poderiam evitar a detecção em aeroportos e recomendar mercados paralelos on-line para a compra de credenciais de login roubadas.
A técnica, chamada de Evil Jailbreak, já funcionou no ChatGPT pouco depois do seu lançamento em 2022, mas parou de operar com a chegada do GPT-4.
Atualmente, a maioria das grandes IAs disponíveis no mercado possui filtros de segurança que bloqueiam esse tipo de atividade.
Falha de segurança
Na quarta-feira (29), uma falha na segurança da DeepSeek expôs um banco de dados da empresa, contendo mais de um milhão de registros.
A brecha permitia que qualquer hacker facilmente acessasse informações sensíveis, como históricos de conversas de usuários, chaves de segurança, dados internos do sistema e até possíveis senhas.
Após identificar a vulnerabilidade, pesquisadores da Wiz Research alertaram a startup, e a empresa rapidamente protegeu o banco de dados. No entanto, até o momento, não houve nenhum comunicado oficial sobre o incidente.
- VEJA TAMBÉM: Quais são as melhores ações para investir em 2025? E-book gratuito mostra as perspectivas da Empiricus Research, Trígono Capital e BTG Pactual
DeepSeek: preocupações e restrições
Diante do rápido crescimento da IA e das preocupações que envolvem não apenas problemas de segurança, mas também disputas geopolíticas e econômicas, empresas e agências governamentais ao redor do mundo estão restringindo o acesso de seus funcionários às ferramentas lançadas pela startup chinesa.
Entre as principais preocupações estão possíveis vazamentos de dados para o governo chinês.
Órgãos governamentais de países como Irlanda, Itália e Reino Unido já entraram em contato com a empresa, buscando esclarecimentos sobre a transparência e a segurança dos dados de seus cidadãos.
A mais recente organização a proibir o uso da DeepSeek em qualquer capacidade foi a Marinha dos EUA, que justificou a medida devido a “potenciais preocupações de segurança e ética”.
Nos Estados Unidos, o debate é mais intenso, e a pressão sobre a empresa é significativa.
Enquanto a Microsoft e a OpenAI investigam se um grupo ligado à DeepSeek utilizou dados gerados pela tecnologia da OpenAI sem autorização, David Sacks, czar de inteligência artificial do presidente Donald Trump, afirmou na terça-feira (28) que há “evidências substanciais” de que a DeepSeek se apoiou nos resultados dos modelos da OpenAI para desenvolver sua própria tecnologia.
Vale destacar que as principais IAs generativas já enfrentaram problemas semelhantes com barreiras éticas, chegando a fornecer respostas com vieses políticos ou informações falsas aos usuários.
Além disso, plataformas como o ChatGPT já sofreram vazamentos de dados de usuários, mas posteriormente reforçaram suas medidas de segurança.
*Com informações do Money Times, Bloomberg e CNBC
The post DeepSeek é confiável mesmo? Falhas no filtro ético e brechas de segurança levantam preocupações sobre a nova IA chinesa appeared first on Seu Dinheiro.