Anthropic: KI-Agenten kompromittieren 17 von 34 Smart Contracts in Sicherheitstest
Das KI-Forschungsunternehmen Anthropic hat mitgeteilt, dass automatisierte KI-Agenten in einer simulierten Blockchain-Umgebung 17 von 34 Smart Contracts erfolgreich kompromittiert und dabei Testgelder in Höhe von 4,5 Millionen US-Dollar abgezogen haben. Die getesteten Modelle umfassten Claude Opus 4.5 und Claude Sonnet 4.5, die gegen nach März 2025 bereitgestellte Verträge antraten. Die KI-Agenten identifizierten zudem zwei bisher unbekannte Schwachstellen in kürzlich eingesetzten Verträgen.