E se uma inteligência artificial fosse tão perigosa que a própria criadora resolvesse escondê-la do mundo? A **Anthropic** anunciou que criou o **Mythos Preview**, um modelo capaz de explorar falhas graves em softwares. Mas surge uma dúvida: estamos diante de um risco real ou de uma jogada de marketing? ## Por que o Mythos assusta tanto > "O modelo Mythos Preview pode representar um risco severo para economias, segurança pública e até segurança nacional." O novo modelo da Anthropic não é uma IA comum de chat. Ele foi treinado com um foco específico em segurança cibernética e análise de código. Segundo a empresa, a ferramenta é excepcionalmente boa em encontrar vulnerabilidades que humanos deixariam passar. Isso significa que ela pode identificar brechas em sistemas bancários, redes elétricas e softwares governamentais. Por causa desse poder, a empresa decidiu não liberar o acesso ao público geral. >📌 LEIA MAIS: [Como a IA está mudando o cenário do hacking mundial](https://www.swen.ia.br/noticia/hacking-ia) ## O dilema da segurança cibernética A Anthropic afirma que agir com responsabilidade é sua prioridade número um. Se o Mythos caísse em mãos erradas, o estrago seria imenso. Hackers poderiam usar a IA para automatizar ataques complexos em escala global. ### Riscos apontados pela empresa Confira os principais perigos listados pela **Anthropic**: - **Exploração de falhas**: Capacidade de criar códigos que invadem sistemas protegidos. - **Ataques em massa**: Automação de buscas por vulnerabilidades em milhares de sites ao mesmo tempo. - **Danos econômicos**: Possibilidade de paralisar serviços essenciais e sistemas financeiros. - **Segurança nacional**: Risco de exposição de dados sigilosos de governos. Esses pontos foram detalhados em um relatório recente que acendeu o alerta em Washington. ## Estratégia de marketing ou cautela? Nem todo mundo está convencido de que o perigo é tão iminente quanto parece. Alguns especialistas ouvidos pelo [The Guardian](https://www.theguardian.com/technology/2026/apr/12/too-powerful-for-the-public-inside-anthropics-bid-to-win-the-ai-publicity-war) mostram ceticismo. Eles questionam se a Anthropic não estaria exagerando para ganhar os holofotes. Afirmar que seu produto é "perigoso demais" é uma forma poderosa de dizer que ele é o melhor do mercado. Essa tática é conhecida no Vale do Silício como a "guerra de publicidade da IA". ### O que dizem os críticos Para muitos pesquisadores, esconder o modelo impede que a comunidade científica valide os riscos. Sem transparência, é impossível saber se o Mythos é realmente uma ameaça ou apenas um avanço incremental. A repórter Aisha Down, em entrevista ao [podcast da Science](https://www.theguardian.com/science/audio/2026/apr/21/mythos-are-fears-over-new-ai-model-panic-or-pr-podcast), explorou essa dualidade. Ela levanta a possibilidade de a medida ser um movimento para atrair mais investimentos e atenção governamental. >📌 LEIA MAIS: [OpenAI vs Anthropic: quem lidera a corrida pela segurança?](https://www.swen.ia.br/noticia/guerra-modelos) ## O impacto na regulação global Independentemente da intenção, o anúncio já está gerando consequências políticas. Reguladores ao redor do mundo estão usando o caso como argumento para leis mais rígidas. Se as próprias empresas admitem que criam ferramentas perigosas, a intervenção estatal parece inevitável. A Anthropic tem sido uma das vozes mais ativas na defesa de uma regulação preventiva. Isso ajuda a empresa a se posicionar como a "escolha ética" em comparação com rivais. ### O papel do governo Governos agora discutem se modelos como o Mythos devem passar por auditorias antes de qualquer teste. A ideia é criar uma espécie de "selo de segurança" para inteligências artificiais de alto risco. Isso mudaria completamente a forma como as empresas de tecnologia lançam seus produtos hoje. ## O veredito: o que esperar agora A decisão da Anthropic marca um novo capítulo na história da tecnologia moderna. Estamos saindo da era do "lançar primeiro e consertar depois" para um modelo de contenção. Se o Mythos é realmente uma arma digital, a cautela é mais do que justificada. Mas, se for apenas marketing, a empresa pode ter criado um pânico desnecessário que vai engessar a inovação. A única certeza é que o debate sobre a segurança da IA nunca foi tão urgente. Você acha que as empresas devem ter o poder de decidir o que é seguro para o público? Para continuar acompanhando investigações como esta, você pode [apoiar o jornalismo independente](https://support.theguardian.com?INTCMP=side_menu_support). Qual será o próximo modelo a ser considerado "perigoso demais" para nós?