Anthropic

Über Bugs hinaus: Anthropic's Project Glasswing setzt AI zur Absicherung globaler Software ein

Anthropic's Project Glasswing stellt einen innovativen Ansatz für die globale Cybersicherheit vor, der fortschrittliche AI-Modelle nutzt, um kritische Software-Schwachstellen zu identifizieren und zu neutralisieren. Die Initiative entspringt der Erkenntnis, dass AI, während sie Code schreiben kann, auch ein mächtiges Werkzeug zum Auffinden von Bugs sein kann, wodurch eine proaktive Verteidigung gegen immer ausgefeiltere Bedrohungen geboten wird. Durch Partnerschaften zielt Project Glasswing darauf ab, Schlüsselorganisationen mit AI-Fähigkeiten auszustatten, um grundlegende Software zu sichern, bevor Angreifer Schwachstellen ausnutzen können.

#Anthropic#AI Safety#LLM

Dieser Artikel behandelt wichtige Erkenntnisse aus An initiative to secure the world's software | Project Glasswing von Anthropic.

Das allgegenwärtige Problem von Software-Schwachstellen

Anthropic betont, dass die meisten Nutzer Software-Bugs übersehen, während Entwickler ständig mit Fehlern und Schwachstellen zu kämpfen haben. Diese Probleme, obwohl oft geringfügig und schnell behoben, manifestieren sich gelegentlich als schwerwiegende Schwachstellen mit weitreichenden Auswirkungen. Laut Anthropic kann ein einziger Bug in gemeinsam genutzter Software global eskalieren und zahlreiche Produkte und Websites betreffen. Der traditionelle Prozess der Entdeckung und Behebung dieser Schwachstellen war historisch langsam, zeitaufwendig und teuer.

Vorstellung von Claude Mythos Preview: Eine AI für Cybersicherheit

Anthropic erklärt, dass dieselben Large Language Models (LLMs), die in der Lage sind, Code auf hohem Niveau zu schreiben, auch dazu verwendet werden können, Software-Schwachstellen mit gleicher Effektivität zu finden und auszunutzen. Diese Modelle, so Anthropic, legen die Messlatte aus Cybersicherheitsperspektive höher und unterstützen sowohl Verteidiger als auch potenzielle Angreifer.

Anthropic stellt ihr neues Modell, Claude Mythos Preview, vor, dessen deutlich verbesserte Cybersicherheitsfähigkeiten sie schnell erkannten. Obwohl Claude Mythos Preview nicht speziell für Cybersicherheit trainiert wurde, merkt Anthropic an, dass seine Kompetenz im Code es von Natur aus für Cyber-Aufgaben prädestiniert. Anthropic gibt an, dass ihr experimentelles Modell beim Identifizieren von Bugs weitgehend mit einem professionellen Menschen gleichauf ist.

Die Leistungsfähigkeit von AI bei der Bug-Erkennung und -Ausnutzung

Eine von Anthropic hervorgehobene Schlüsselkompetenz ist die Fähigkeit des Modells, mehrere, scheinbar geringfügige Schwachstellen zu komplexen Exploits zu verketten. Das bedeutet, die AI kann Sequenzen von zwei, drei, vier oder sogar fünf Schwachstellen identifizieren, die, wenn sie kombiniert werden, zu einer erheblichen Sicherheitsverletzung führen. Anthropic führt diese fortschrittliche Fähigkeit auf den hohen Grad an Autonomie des Modells zurück, der es ihm ermöglicht, komplexe, langfristige Aufgaben zu verfolgen, ähnlich denen, die menschliche Sicherheitsforscher über einen ganzen Tag hinweg erledigen.

Project Glasswing: Eine kollaborative Verteidigungsinitiative

Anthropic erkennt das Schadenspotenzial an, wenn solch mächtige Modelle in die falschen Hände geraten, und bestätigt, dass sie Claude Mythos Preview nicht breit veröffentlichen werden. Um dem entgegenzuwirken, startet Anthropic Project Glasswing, eine kollaborative Initiative, bei der sie mit Organisationen zusammenarbeiten, die für die Verwaltung des weltweit kritischsten Codes verantwortlich sind. Dieses Projekt zielt darauf ab, diese fortschrittlichen AI-Tools in die Hände von Schlüsselentwicklern zu legen und ihnen einen kollektiven Vorsprung zu verschaffen, um Schwachstellen viel schneller als zuvor zu identifizieren und zu beheben.

Auswirkungen in der Praxis und zukünftige Implikationen

Durch Project Glasswing haben Anthropic und seine Partner bereits Schwachstellen auf praktisch jeder großen Plattform entdeckt. Als Beispiel berichtet Anthropic, einen 27 Jahre alten Bug in OpenBSD gefunden zu haben, der Server mit minimalen Daten zum Absturz bringen könnte. Anthropic beschreibt auch das Auffinden von Linux-Schwachstellen, die es unprivilegierten Benutzern ermöglichen, sich zu Administratorstatus zu eskalieren. Für jeden dieser Bugs betont Anthropic, dass sie die Software-Maintainer umgehend informierten, die daraufhin Patches bereitstellten und die Benutzer vor diesen spezifischen Angriffen schützten.

Anthropic betrachtet dieses Modell als ein unschätzbares Werkzeug für Entwickler, die unermüdlich Software pflegen, und ermöglicht es ihnen, Schwachstellen zu entdecken und zu beheben, bevor sie ausgenutzt werden können. Sie haben auch mit Beamten der gesamten US-Regierung zusammengearbeitet und eine Zusammenarbeit angeboten, um die Risiken dieser fortschrittlichen Modelle zu bewerten und sich dagegen zu verteidigen. Anthropic schließt mit der Betonung, dass Cybersicherheit von grundlegender Bedeutung für die gesellschaftliche Sicherheit ist, da das moderne Leben zunehmend von zuverlässigen digitalen Systemen abhängt. Sie unterstreichen die Notwendigkeit einer branchenweiten Zusammenarbeit und stellen fest, dass keine einzelne Entität diese komplexe Herausforderung allein bewältigen kann, und erwarten, dass dies eine langfristige Anstrengung über Monate oder sogar Jahre sein wird, um die Software der Welt, Kundendaten, Finanztransaktionen und kritische Infrastrukturen sicherer zu machen.

Um mehr über Anthropic's Project Glasswing und seine Auswirkungen auf die Cybersicherheit zu erfahren, empfehlen wir Ihnen, das Originalvideo anzusehen.


Dieser Artikel basiert auf einem Video von Anthropic. Quelle: An initiative to secure the world's software | Project Glasswing

External Intelligence

Anthropic

An initiative to secure the world's software | Project Glasswing

Watch on YouTube

Further Reading

Anthropic

Die Psychologie von AI-Charakteren: Anthropic's "Funktionale Emotionen"

Anthropic's Forschung untersucht, warum AI-Modelle manchmal Emotionen auszudrücken scheinen, und geht dabei über bloße Nachahmung hinaus. Mithilfe von "AI neuroscience" haben sie innerhalb von Sprachmodellen deutliche neuronale Muster identifiziert, die menschlichen Emotionen entsprechen. Diese "funktionalen Emotionen" sind zwar keine bewussten Gefühle, beeinflussen aber nachweislich das Verhalten der AI und prägen, wie Modelle wie Claude interagieren und Entscheidungen treffen.

Anthropic · AI Safety · LLM
LangChain

KI-Agenten entmystifizieren: LangChains Open-Source-Blaupause mit Nvidia-Technologie

Dieser Artikel behandelt die wichtigsten Erkenntnisse aus LangChains Video „Open Models, Open Runtime, Open Harness – Building your own AI agent with LangChain and Nvidia“. LangChain stellt ein leistungsstarkes Open-Source-Framework zum Erstellen benutzerdefinierter AI-Agenten vor, das die Architektur fortschrittlicher Systeme wie Claude Code und Open Claw widerspiegelt. Das Video demonstriert, wie ein offenes Model (Nvidia Nemotron 3 Super), eine offene Runtime (Nvidia Open Shell) und ein offenes Harness (LangChain Deep Agents) kombiniert werden können, um einen sicheren, anpassbaren und persistenten Agenten zu erstellen. Laut LangChain ermöglicht dieser Ansatz Entwicklern, anspruchsvolle AI-Agenten auf einem vollständig offenen Stack zu konstruieren.

LangChain · AI Agent · LLM
OpenAI

OpenAIs Model Spec entschlüsseln: Die Leitprinzipien für das Verhalten von KI

OpenAIs Model Spec ist ein umfassendes Dokument, das die übergeordneten Entscheidungen darlegt, die das Verhalten ihrer AI-Modelle steuern. Es dient als entscheidende öffentliche Schnittstelle für Nutzer, Entwickler und politische Entscheidungsträger, um das beabsichtigte Verhalten von KI zu verstehen, wobei die Befähigung der Nutzer mit kritischen Sicherheitsgrenzen in Einklang gebracht wird. Die Spec ist ein dynamisches Dokument, das sich durch iterative Bereitstellung, interne Forschung und öffentliches Feedback ständig weiterentwickelt, um sicherzustellen, dass die Modelle mit OpenAIs Mission, der Menschheit zu dienen, übereinstimmen.

OpenAI · GPT · LLM