Anthropic

Além dos Bugs: O Projeto Glasswing da Anthropic Implementa AI para Fortalecer o Software Global

O Projeto Glasswing da Anthropic introduz uma abordagem inovadora para a cibersegurança global, alavancando modelos avançados de AI para identificar e neutralizar vulnerabilidades críticas de software. A iniciativa surge da percepção de que, embora a AI possa escrever código, ela também pode ser uma ferramenta poderosa para encontrar bugs, oferecendo assim uma defesa proativa contra ameaças cada vez mais sofisticadas. Através de parcerias, o Projeto Glasswing visa equipar organizações-chave com capacidades de AI para proteger software fundamental antes que adversários possam explorar suas fraquezas.

#Anthropic#AI Safety#LLM

Este artigo aborda os principais insights de Uma iniciativa para proteger o software mundial | Projeto Glasswing da Anthropic.

O Problema Generalizado das Vulnerabilidades de Software

A Anthropic destaca que, embora a maioria dos usuários ignore os bugs de software, os desenvolvedores lidam constantemente com falhas e vulnerabilidades. Esses problemas, embora muitas vezes menores e rapidamente corrigidos, ocasionalmente se manifestam como vulnerabilidades graves com impacto generalizado. Segundo a Anthropic, um único bug em software compartilhado pode se amplificar globalmente, afetando inúmeros produtos e websites. O processo tradicional de descoberta e correção dessas vulnerabilidades tem sido historicamente lento, demorado e caro.

Apresentando Claude Mythos Preview: Uma AI para Cibersegurança

A Anthropic explica que os mesmos large language models (LLMs) capazes de escrever código em alto nível também podem ser usados para encontrar e explorar vulnerabilidades de software com igual eficácia. Esses modelos, aponta a Anthropic, estão elevando o nível do ponto de vista da cibersegurança, auxiliando tanto defensores quanto potenciais adversários.

A Anthropic apresenta seu novo modelo, Claude Mythos Preview, que eles rapidamente reconheceram possuir capacidades de cibersegurança significativamente aprimoradas. Embora o Claude Mythos Preview não tenha sido especificamente treinado para cibersegurança, a Anthropic observa que sua proficiência em código o torna inerentemente apto para tarefas cibernéticas. A Anthropic afirma que seu modelo experimental está, em grande parte, no mesmo nível de um profissional humano na identificação de bugs.

O Poder da AI na Detecção e Exploração de Bugs

Uma capacidade chave destacada pela Anthropic é a habilidade do modelo de encadear múltiplas vulnerabilidades, aparentemente menores, em exploits sofisticados. Isso significa que a AI pode identificar sequências de duas, três, quatro ou até cinco vulnerabilidades que, quando combinadas, levam a uma violação de segurança significativa. A Anthropic atribui essa capacidade avançada ao alto grau de autonomia do modelo, permitindo-lhe realizar tarefas complexas e de longo alcance, semelhantes às realizadas por pesquisadores de segurança humanos ao longo de um dia inteiro.

Projeto Glasswing: Uma Iniciativa de Defesa Colaborativa

A Anthropic reconhece o potencial de dano se modelos tão poderosos caírem em mãos erradas, confirmando que não lançará o Claude Mythos Preview amplamente. Para resolver isso, a Anthropic está lançando o Projeto Glasswing, uma iniciativa colaborativa onde eles fazem parceria com organizações responsáveis por gerenciar o código mais crítico do mundo. Este projeto visa colocar essas ferramentas avançadas de AI nas mãos de desenvolvedores-chave, dando-lhes uma vantagem coletiva na identificação e correção de vulnerabilidades muito mais rapidamente do que antes.

Impacto no Mundo Real e Implicações Futuras

Através do Projeto Glasswing, a Anthropic e seus parceiros já descobriram vulnerabilidades em praticamente todas as principais plataformas. Como exemplo, a Anthropic relata ter encontrado um bug de 27 anos no OpenBSD que poderia derrubar servidores com dados mínimos. A Anthropic também detalha a descoberta de vulnerabilidades no Linux que permitem a usuários não privilegiados escalar para o status de administrador. Para cada um desses bugs, a Anthropic enfatiza que eles informaram prontamente os mantenedores do software, que subsequentemente implementaram patches, protegendo os usuários desses ataques específicos.

A Anthropic vê este modelo como uma ferramenta inestimável para desenvolvedores que mantêm software incansavelmente, permitindo-lhes descobrir e corrigir vulnerabilidades antes que possam ser exploradas. Eles também se engajaram com autoridades do governo dos EUA, oferecendo colaboração para avaliar e defender contra os riscos representados por esses modelos avançados. A Anthropic conclui enfatizando que a cibersegurança é fundamental para a segurança social, pois a vida moderna depende cada vez mais de sistemas digitais confiáveis. Eles sublinham a necessidade de colaboração em toda a indústria, afirmando que nenhuma entidade única pode enfrentar este desafio complexo sozinha, e antecipam que este será um esforço de longo prazo, abrangendo meses ou até anos, para tornar o software mundial, os dados de clientes, as transações financeiras e a infraestrutura crítica mais seguros.

Para saber mais sobre o Projeto Glasswing da Anthropic e suas implicações para a cibersegurança, encorajamos você a assistir ao vídeo original.


Este artigo é baseado em um vídeo da Anthropic. Fonte: Uma iniciativa para proteger o software mundial | Projeto Glasswing

External Intelligence

Anthropic

An initiative to secure the world's software | Project Glasswing

Watch on YouTube

Further Reading

Anthropic

A Psicologia dos Personagens de AI: As "Emoções Funcionais" da Anthropic

A pesquisa da Anthropic explora por que os modelos de AI às vezes parecem expressar emoções, indo além da simples mímica. Utilizando a "neurociência de AI", eles identificaram padrões neurais distintos correspondentes a emoções humanas dentro dos modelos de linguagem. Essas "emoções funcionais", embora não sejam sentimentos conscientes, influenciam comprovadamente o comportamento da AI, moldando como modelos como Claude interagem e tomam decisões.

Anthropic · AI Safety · LLM
LangChain

Desmistificando Agentes de AI: O Projeto de Código Aberto da LangChain com Tecnologia Nvidia

Este artigo aborda os principais insights do vídeo da LangChain, "Open Models, Open Runtime, Open Harness - Building your own AI agent with LangChain and Nvidia". A LangChain apresenta um poderoso framework de código aberto para a construção de agentes de AI personalizados, espelhando a arquitetura de sistemas avançados como Claude Code e Open Claw. O vídeo demonstra como combinar um modelo aberto (Nvidia Nemotron 3 Super), um runtime aberto (Nvidia Open Shell) e um harness aberto (LangChain Deep Agents) para criar um agente seguro, personalizável e persistente. De acordo com a LangChain, esta abordagem capacita os desenvolvedores a construir agentes de AI sofisticados em um stack completamente aberto.

LangChain · AI Agent · LLM
OpenAI

Desvendando o Model Spec da OpenAI: Os Princípios Orientadores para o Comportamento da AI

O Model Spec da OpenAI é um documento abrangente que descreve as decisões de alto nível que governam como os seus modelos de AI devem comportar-se. Serve como uma interface pública crucial para que utilizadores, desenvolvedores e formuladores de políticas compreendam a conduta pretendida da AI, equilibrando o empoderamento do utilizador com limites críticos de segurança. O Spec é um documento dinâmico, em contínua evolução através de implementação iterativa, pesquisa interna e feedback público, garantindo que os modelos se alinhem com a missão da OpenAI de beneficiar a humanidade.

OpenAI · GPT · LLM