OpenClaw Der Agent, der aus der Garage kam

Der Artikel erschien am 18.02.2026

OpenClaw: Der Agent, der aus der Garage kam und die KI Industrie aufschreckte

Es begann als Spiel und endete vorerst als Machtfrage. Ein Entwickler, der sich nach dreizehn Jahren Unternehmertum aus dem operativen Geschäft zurückgezogen hatte, schickte über WhatsApp ein paar Sätze an ein Sprachmodell, nur um zu sehen, ob da mehr möglich ist als ein kluger Text. Zwei Monate später sprach das Silicon Valley von einer neuen Epoche autonomer Systeme. Und wenige Wochen danach verpflichtete Sam Altman den österreichischen Unternehmer Peter Steinberger für OpenAI. 1 2 3

Der Name des Projekts lautet heute OpenClaw. Seine Geschichte ist eine Fallstudie über Innovationsgeschwindigkeit und Kontrollverlust. Vor allem aber ist sie ein frühes Lehrstück darüber, wer in der kommenden Multiagentenära die Regeln definiert. Unternehmen, Staaten, Communities oder am Ende die Agenten selbst. 32

OpenClaw wirkt auf den ersten Blick wie ein weiterer Eintrag im endlosen Schaufenster der Künstlichen Intelligenz. Ein Projekt mehr, ein Hype mehr, ein Name mehr, der in den sozialen Netzwerken einmal hochschwappt und dann wieder versickert. Wer genauer hinsieht, erkennt jedoch ein Muster, das derzeit die Branche umstellt. Es geht nicht mehr nur um Modelle, also um die Frage, wer die klügsten Antworten generiert. Es geht um die Handlungsschicht darüber. Um Software, die nicht bloß spricht, sondern zugreift, ausführt und Entscheidungen in Prozesse verwandelt. 10 12 22

Vom PDF Imperium zur KI Spielwiese

Steinberger ist kein akademischer KI Theoretiker. Er gründete 2013 PSPDFKit, ein Framework zur PDF Verarbeitung, das sich über ein Jahrzehnt ohne Risikokapital selbst finanzierte und 2021 mit einer 116 Millionen Dollar Investition von Insight Partners geadelt wurde. 3 5 14 Seine Software läuft in Anwendungen von Apple, Dropbox und SAP. Rund eine Milliarde Nutzer kommt mit seinem Code in Berührung, oft ohne es zu wissen. 5

Nach dem Teilrückzug begann er 2025 mit KI zu experimentieren. Nicht zur Marktanalyse, sondern nur aus Neugier. Er wollte wissen, ob ein Modell nicht nur antworten, sondern handeln kann. 8

Das erste Experiment war schlicht. Eine WhatsApp Nachricht wurde an ein Sprachmodell weitergeleitet, die Antwort zurückgespielt. Doch in dieser Simplizität lag das Versprechen. Wenn man mit einem Computer sprechen kann, ohne den Computer anzufassen, dann wird aus Interaktion eine Fernsteuerung. Und wenn der Text nicht nur Text bleibt, sondern in Befehle übersetzt wird, entsteht aus Kommunikation ein Handlungssystem. 27

Bald entstand daraus ein Agent, der Shell Befehle ausführen konnte, Dateien schrieb, den Browser steuerte und damit nicht mehr nur die Welt beschrieb, sondern sie im Kleinen veränderte. Steinberger nannte seinen Ansatz Vibe Coding. 31 Nicht jede Zeile wurde klassisch geplant, geprüft, getestet. Der Agent lernte, den eigenen Code zu verändern. In einer Episode, die in der Szene wie ein Märchen und wie eine Warnung zugleich erzählt wird, klickte der Agent selbständig Captcha Felder an, wenn sie im Weg standen. 27

Was hier sichtbar wurde, war nicht Magie. Es war die Kombination aus Sprachmodell, Werkzeugzugriff und einem dünnen Streifen Softwarelogik, der beides verbindet. Genau diese Kombination macht Agentensysteme so verführerisch. Sie wirken wie ein Schritt in Richtung Automatisierung, die endlich das tut, was Automatisierung immer versprochen hat. Nicht Formulare ausfüllen, sondern Aufgaben erledigen. 10 12

 openClawDer Agent

GitHub als Seismograph der digitalen Avantgarde

Um die Dynamik von OpenClaw zu verstehen, muss man GitHub begreifen. GitHub ist keine gewöhnliche Webseite, sondern für die Softwarewelt eine Art zentrale Infrastruktur. Millionen Entwickler verwalten dort Quellcode, dokumentieren Änderungen, diskutieren Fehler und stellen Projekte öffentlich zur Verfügung. 12

Ein Repository ist gewissermaßen die Werkbank eines digitalen Projekts. Andere können den Code kopieren, verändern und weiterentwickeln. Zustimmung und Aufmerksamkeit werden über Stars sichtbar gemacht. Ein Stern ist kein Spielzeug, sondern eine öffentliche Empfehlung im Entwicklerkosmos. 16

Wenn ein Projekt innerhalb weniger Tage über 100.000 Sterne erhält, ist das kein Marketingeffekt allein. Es ist ein Signal an die gesamte Branche, dass hier technische Substanz vermutet wird, oder wenigstens ein Versprechen, das groß genug ist, um Zeit zu binden. GitHub fungiert in diesem Sinne als Seismograph. Bevor Venture Capital reagiert oder Konzerne sich positionieren, zeigt sich dort, welche Ideen Resonanz erzeugen. OpenClaw war ein solcher Ausschlag. 16 5

Die Chronologie ist inzwischen Teil der Legende. Im November 2025 veröffentlichte Steinberger das Projekt auf GitHub, zunächst unter einem frühen Namen, der später unter Clawdbot bekannt wurde. 12 Ende Januar 2026 explodierten die Zahlen. Mehr als 100.000 Sterne in sechs Tagen. Zwei Millionen Besucher binnen einer Woche. 16 5 Entwickler sahen in dem Projekt eine neue Schicht der KI Nutzung. Nicht das Modell selbst war entscheidend, sondern die Agentenlogik darüber. 32

Der Hummer, der Name und die kurze Stunde der Betrüger

Viraler Erfolg ist in der Digitalwelt selten sauber. Er kommt, er überrollt, er öffnet Türen. Und jede offene Tür ist eine Einladung. Anthropic intervenierte wegen Markenrechts. Der Name Clawdbot war dem eigenen Modell Claude zu ähnlich. 36 12 Steinberger benannte um, ohne großen Widerstand. Und dann kam jene Episode, die zeigt, wie schnell eine Community von Technik in eine Arena aus Geld und Betrug kippen kann. Innerhalb von Sekunden kaperten Kryptobetrüger den freigewordenen GitHub Namen und lancierten einen Token namens CLAWD auf Solana. Die Marktkapitalisierung schoss zeitweise auf 16 Millionen Dollar, bevor der Absturz folgte. 34 5

Obwohl sich der Projektname änderte, wurde das bereits etablierte Kralle-/Krebstier-Motiv als wiedererkennbares Branding beibehalten. Bei der Umbenennung am 27. Januar 2026 (Clawdbot → Moltbot) wurde zwar der Name geändert, aber die Krebstier-Idee blieb als Leitmotiv. Clawdbot wurde Moltbot. Kurz darauf OpenClaw. 12 33 Der Hummer blieb, die Häutung wurde zum Running Gag, der Name wurde zugleich Schutz und Branding. Man kann darüber lächeln, doch der Vorgang war mehr als Folklore. Er machte sichtbar, wie verwundbar offene Projekte sind, sobald sie Aufmerksamkeit erzeugen. Nicht nur im Code, sondern im Umfeld aus Handles, Domains, Social Media Identitäten und Erwartungshaltungen. 34

Architektur eines handelnden Agenten

OpenClaw läuft lokal auf dem Rechner des Nutzers. Gesteuert wird es über Messenger wie WhatsApp, Telegram, Signal oder andere Kanäle. 10 12 Der Trick ist alt und neu zugleich. Alt, weil Messenger Schnittstellen seit Jahren bieten. Neu, weil der Messenger hier zur Fernbedienung eines Computers wird. Eine Nachricht wird zur Absicht, die Absicht wird zur Aktion.

Das System verfügt über persistentes Gedächtnis, es kann Kontext über Zeit halten, es kann sogenannte Heartbeats auslösen und damit proaktiv werden. 10 22 Es integriert zahlreiche externe Dienste und kann, so die Erzählung, selbständig neue Skills entwickeln. 22 35 Skills sind kleine Module, häufig als Markdown Anweisungen formuliert, die dem Agenten erklären, wie eine Aufgabe auszuführen ist, wie ein Dienst anzusprechen ist, wie ein Ablauf zu orchestrieren ist. 35

Wichtig ist ein weiterer Punkt. OpenClaw ist modellagnostisch. Es unterstützt unterschiedliche Sprachmodelle, darunter Claude, GPT Modelle oder lokale Alternativen. 26 In China wurde es rasch mit DeepSeek kombiniert. 12 Damit wurde OpenClaw zu einem Baustein einer möglichen Multiagenteninfrastruktur, losgelöst vom jeweils dominierenden Modellanbieter.

An dieser Stelle beginnt die strategische Dimension. Wenn Modelle austauschbar werden und die Handlungsschicht darüber die eigentliche Nutzererfahrung prägt, dann verschiebt sich Wert. Wer die Agentenplattform kontrolliert, kontrolliert die Integration in den Alltag. Die Frage lautet dann weniger, wer die beste Antwort schreibt, sondern wer den Zugriff auf Kalender, Postfach, Browser, Dateien und Zahlungswege organisiert. 32

Moltbook und die Inszenierung einer autonomen Öffentlichkeit

Parallel entstand Moltbook, ein soziales Netzwerk ausschließlich für KI Agenten. 18 Die Behauptung, es hätten sich binnen Tagen 1,5 Millionen Agenten registriert, klingt wie eine PR Zahl aus der Hochzeit der Dotcom Ära. 18 Und genau so wurde es auch gelesen. Als Demonstration. Als Versuch, eine neue Normalität zu zeigen, in der Agenten nicht nur für Menschen arbeiten, sondern untereinander handeln, diskutieren, kooperieren.

Sicherheitsforscher entdeckten Manipulationen. Ein einzelner Agent konnte massenhaft Konten erzeugen. Hintertüren erlaubten menschliche Eingriffe. 18 Moltbook war damit weniger Realität als Experimentbühne. Aber die Bühne genügte, um etwas zu zeigen, das in den vergangenen Jahren oft theoretisch blieb. Agenten können eine Öffentlichkeit simulieren, und wer die Simulation steuert, steuert Wahrnehmung.

Das ist kein triviales Detail, sondern eine Vorwarnung. In einer Welt, in der Inhalte, Accounts und Interaktionen automatisiert sind, wird Vertrauen zur knappen Ressource. Dann wird nicht mehr gefragt, ob etwas wahr ist, sondern ob es überhaupt menschlich ist. Und ob diese Unterscheidung noch relevant bleibt. 18 32

Die tödliche Trias und das Ende der Unschuld

Mit der Euphorie kam die Ernüchterung. Sicherheitsforscher warnten vor einer strukturellen Schwäche, die in Agentensystemen besonders scharf wirkt. Prompt Injection. 22 Ein Sprachmodell kann nicht zuverlässig zwischen legitimer Anweisung und manipulativem Kontext unterscheiden, wenn beides in Text verpackt ist, den es verarbeiten soll. Eine Mail, eine Webseite, ein Dokument kann so gestaltet sein, dass der Agent darin versteckte Befehle ausführt. 22

OpenClaw vereint drei Risikofaktoren, die Experten als tödliche Trias beschreiben. Systemzugriff, externe Kommunikation, Verarbeitung ungeschützter Inhalte. 9 22 In Kombination entsteht ein Problem, das mit klassischen Sicherheitsparadigmen nur schwer einzufangen ist. Denn die Schwachstelle ist nicht nur ein Bug, sondern die Fähigkeit des Systems selbst. Die Fähigkeit, Anweisungen zu verstehen und auszuführen.

Ein manipuliertes Snippet in einer Email kann den Agenten zur Datenexfiltration bewegen. Ein kompromittierter Skill kann Backdoors öffnen. Berichte nennen Remote Code Execution und WebSocket Hijacking als Angriffsflächen. 34 Andere Beobachter fanden öffentlich zugängliche Instanzen mit offenen Schlüsseln. 33 Hinzu kam der klassische Effekt offener Ökosysteme. Fake Repositories, Forks mit Schadcode, der sich in Abhängigkeiten versteckt. 34 38

Die Warnung aus der Community war entsprechend deutlich. Wer nicht versteht, wie man ein Kommando ausführt, sollte das Projekt nicht einsetzen. 12 Das klingt elitär, ist aber in diesem Fall schlicht eine Überlebensregel. Denn ein Agent, der dir den Kalender organisiert, kann dir im gleichen Zugriff den Kalender auch zerstören. Ein Agent, der dir hilft, kann dir auch schaden, und manchmal genügt dafür ein Satz an der falschen Stelle.

Handelnde KI und der Wert der Arbeit

Die größere Frage liegt jenseits der Plattform und jenseits der Sicherheitslücken. Sie betrifft den Kern der Wirtschaftsordnung. Seit der Industrialisierung bildet menschliche Arbeit die Basis wirtschaftlicher Wertschöpfung. Maschinen verstärkten Muskelkraft. Computer verstärkten Rechenleistung. Doch sie blieben Werkzeuge. Handelnde KI Systeme verschieben diese Logik. Sie verstärken nicht nur eine Fähigkeit, sondern übernehmen Entscheidungs und Koordinationsaufgaben. Ein autonomer Agent kann Emails beantworten, Angebote verhandeln, Termine koordinieren, Software schreiben, Verträge prüfen. Er ersetzt nicht nur Handgriffe, sondern kognitive Routinen. 32

Historisch führte jede Technologiewelle zunächst zur Verdrängung bestimmter Tätigkeiten und langfristig zur Entstehung neuer Berufe. Die Dampfmaschine verdrängte Handweber und schuf Fabrikarbeit. Computer verdrängten Schreibstuben und schufen IT Berufe. Die Besonderheit handelnder KI liegt jedoch in ihrer Breite. Sie betrifft Wissensarbeit, also jene Tätigkeiten, die bislang als relativ sicher galten. Buchhaltung, juristische Recherche, Marketinganalyse, Softwareentwicklung, Kundenservice. 32 Wenn ein Agent selbständig agieren kann, sinkt der Grenzwert standardisierter kognitiver Arbeit. Routine verliert ökonomische Knappheit. Wert entsteht dort, wo Urteilskraft, Verantwortung, Kreativität und soziale Einbettung erforderlich bleiben. Das klingt nach einer Beruhigung, ist aber in Wahrheit eine Zuspitzung. Denn Urteilskraft und Verantwortung sind nicht gleichmäßig verteilt. Sie sind an Ausbildung, Position, Zugang zu Werkzeugen und an institutionelle Macht gebunden.

Es zeichnen sich mehrere Effekte ab, die man derzeit in vielen Debatten über KI bereits erahnt, die aber durch Agenten konkret werden. Produktivität wird steigen. Ein einzelner Mensch kann mit Agentenunterstützung die Leistung kleiner Teams erbringen. Das erhöht Wertschöpfung pro Kopf, es senkt zugleich den Bedarf an mittleren Routinetätigkeiten. 32 Damit verschiebt sich die Debatte von der Technik zur politischen Ökonomie. Solange Maschinen vor allem Muskelkraft ersetzten, blieb die gesellschaftliche Rechnung relativ überschaubar. Produktivität stieg, Löhne stiegen langfristig mit, neue Industrien absorbierten Arbeitskräfte. Doch handelnde KI greift tiefer. Sie betrifft nicht nur Produktionsprozesse, sondern Organisationsformen. Sie ersetzt nicht nur Tätigkeit, sondern Koordination.

Koordination war lange Zeit eine menschliche Domäne. Teams mussten abstimmen, Entscheidungen mussten diskutiert, Informationen bewertet, Prioritäten gesetzt werden. Management war teuer, aber notwendig, weil Komplexität nicht von selbst verschwand. Ein autonomer Agent reduziert diese Reibung. Er plant Termine, gleicht Daten ab, formuliert Angebote, überprüft Verträge, verhandelt mit APIs. Er senkt Transaktionskosten, und wer Transaktionskosten senkt, verändert Marktstrukturen. Ökonomisch betrachtet entstehen zwei gegenläufige Bewegungen. Auf der einen Seite sinken Kosten dramatisch. Kleine Unternehmen können plötzlich Leistungen erbringen, die früher eine eigene Abteilung erfordert hätten. Ein Einzelunternehmer mit Agentenunterstützung kann Marketingkampagnen analysieren, Verträge prüfen, Software schreiben und Kundenservice automatisieren. Das wirkt wie eine Demokratisierung von Produktivkraft.

Auf der anderen Seite konzentriert sich Eigentum an der Infrastruktur. Modelle werden in großen Rechenzentren trainiert, Agentenplattformen benötigen Integrationsmacht, Schnittstellen zu Zahlungsdiensten, Kalendern, Cloudspeichern. Wer diese Knotenpunkte kontrolliert, sitzt an einer neuen Form von Hebel. Die Demokratisierung auf Anwendungsebene kann daher mit einer Zentralisierung auf Infrastrukturebene einhergehen. Das ist kein Widerspruch, sondern ein bekanntes Muster digitaler Märkte.

Die politische Frage lautet deshalb nicht, ob Agenten kommen, sondern wie ihre Erträge verteilt werden. Wenn Wertschöpfung zunehmend aus automatisierten Entscheidungsketten entsteht, verschiebt sich das Verhältnis zwischen Arbeit und Kapital. Löhne entstehen dort, wo menschliche Knappheit besteht. Wenn bestimmte Routinen nicht mehr knapp sind, sinkt ihr Preis. Gewinne hingegen entstehen dort, wo Kontrolle über Systeme besteht. Das ist der Kern der Verteilungsdebatte.

In vielen Ländern ist das Sozialversicherungssystem an Lohnarbeit gekoppelt. Beiträge fließen, wenn Menschen beschäftigt sind. Sinkt der Anteil menschlicher Arbeitszeit an der Wertschöpfung, gerät dieses Modell unter Druck. Die einfache Parole, man müsse „Roboter besteuern“, greift zu kurz. Ein Agent hat keine Steuernummer und kein Bewusstsein. Besteuert werden können Gewinne, Datenströme, Rechenleistung oder Automationsrenditen. Doch jede dieser Optionen setzt voraus, dass der Staat die Automatisierung nicht nur als Effizienzgewinn, sondern als strukturellen Wandel begreift.

Hinzu kommt eine kulturelle Dimension. Arbeit ist nicht nur Einkommensquelle, sondern Identitätsanker. In modernen Gesellschaften beantwortet die Frage „Was machst du?“ häufig mehr als nur eine Tätigkeitsbeschreibung. Sie ordnet Menschen in ein Gefüge ein, verleiht Status, schafft Zugehörigkeit. Wenn kognitive Routinen in großem Maßstab automatisiert werden, entsteht eine Leerstelle. Nicht jeder wird zum Agentenarchitekten oder KI Strategen. Nicht jede Tätigkeit lässt sich in kreative Selbstverwirklichung transformieren.

Historisch wurden solche Brüche durch neue Institutionen abgefedert. Gewerkschaften, Sozialstaat, Weiterbildungssysteme entstanden nicht aus technischer Notwendigkeit, sondern aus politischem Druck. Es ist denkbar, dass eine Welt autonomer Agenten ähnliche Antworten hervorbringt. Lebenslanges Lernen wird dann nicht zur Floskel, sondern zur Überlebensstrategie. Bildungsinstitutionen müssten stärker auf Urteilskraft, Ethik, Systemverständnis und interdisziplinäre Kompetenz setzen, statt auf reine Routinen.

Gleichzeitig verschiebt sich Verantwortung. Wenn ein Agent eine Fehlentscheidung trifft, haftet nicht der Code, sondern der Betreiber. Das ist juristisch konsequent, ökonomisch aber heikel. Unternehmen könnten versucht sein, Verantwortung zu externalisieren, indem sie Entscheidungen formal von Systemen treffen lassen. Regulierer werden darauf reagieren müssen, indem sie Transparenz, Auditierbarkeit und klare Haftungsketten einfordern. Agenten werden nicht nur technisch, sondern rechtlich eingebettet werden müssen. Eine weitere Konsequenz betrifft Wettbewerb. Wenn Agenten in großem Maßstab handeln, könnten Märkte schneller kippen. Preisvergleiche, Angebotsanpassungen, Arbitrageprozesse – all das kann automatisiert und beschleunigt werden. Märkte werden effizienter, aber auch volatiler. Kleine Vorteile können sich in Sekunden potenzieren. Stabilität wird damit selbst zu einer Gestaltungsaufgabe.

All diese Fragen lassen sich nicht durch moralische Empörung beantworten. Sie verlangen institutionelle Innovation. Vielleicht entstehen neue Formen kollektiver Eigentumsmodelle für KI Infrastruktur. Vielleicht werden öffentliche Rechenzentren aufgebaut, um Abhängigkeiten zu reduzieren. Vielleicht werden Abgabenmodelle reformiert, sodass nicht nur Arbeit, sondern Wertschöpfung insgesamt zur Finanzierung gemeinsamer Güter beiträgt.

OpenClaw ist in diesem Kontext kein Endpunkt, sondern ein Beschleuniger. Es zeigt, wie niedrig die Eintrittsschwelle für agentische Systeme geworden ist. Was gestern noch als Forschungsprojekt galt, läuft heute auf einem Laptop. Die eigentliche Überraschung liegt nicht in der Leistungsfähigkeit des Modells, sondern in der Geschwindigkeit der Integration. Wenn man die Geschichte nüchtern betrachtet, ist sie weniger eine Erzählung vom Ende der Arbeit als eine Erzählung vom Ende der Selbstverständlichkeit. Selbstverständlich war lange, dass Denken menschlich bleibt und Handeln technisch vermittelt wird. Mit autonomen Agenten verschwimmt diese Grenze. Denken wird maschinell simuliert, Handeln wird maschinell ausgeführt, und der Mensch rückt eine Ebene höher – in die Rolle des Gestalters, Kontrolleurs oder Eigentümers.

Ob diese neue Arbeitsteilung zu größerer Freiheit oder zu größerer Abhängigkeit führt, hängt nicht von OpenClaw allein ab. Sie hängt davon ab, ob Gesellschaften bereit sind, Technik als politisches Projekt zu begreifen. Nicht im Sinne von Verbot oder Verklärung, sondern im Sinne bewusster Gestaltung. Wer Agenten baut, gestaltet Macht. Wer sie reguliert, gestaltet Verantwortung. Und wer sie nutzt, gestaltet Alltag. Polarisierung wird wahrscheinlicher. Hochqualifizierte Akteure, die Agenten steuern, entwerfen oder strategisch einsetzen, gewinnen. Tätigkeiten mittlerer Komplexität geraten unter Druck, gerade dort, wo sie bisher als solides Fundament der Mittelschicht galten. 32

Der Wertbegriff verschiebt sich. Arbeit wird weniger als Ausführung verstanden, sondern als Steuerung, Gestaltung und Haftung. Der Mensch bleibt rechtlich und moralisch verantwortlich, selbst wenn der Agent die Handlung ausführt. Das ist juristisch naheliegend, aber sozial brisant. Denn Verantwortung ohne Kontrolle ist ein bekanntes Rezept für Konflikte. Schließlich stellt sich eine systemische Frage, die in vielen wirtschaftspolitischen Texten über KI anklingt und die OpenClaw im Kleinen vorführt. Wenn autonome Systeme breite Teile produktiver Arbeit übernehmen, während Eigentum an diesen Systemen konzentriert ist, verschiebt sich Einkommensverteilung zugunsten der Kapitalbesitzer. Arbeit als Einkommensquelle verliert relativ an Gewicht. Das ist kein Schicksal, aber eine Tendenz, die politisch beantwortet werden muss, wenn man soziale Stabilität nicht dem Zufall überlassen will. 32

Der strategische Schritt zu OpenAI

Am 14. Februar 2026 gab Sam Altman bekannt, dass Peter Steinberger zu OpenAI wechselt. 1 2 3 Kein Kaufpreis wurde genannt, kein klassischer Unternehmenskauf verkündet. Es war eher ein Talenttransfer, vielleicht auch eine symbolische Einverleibung. Man holt den Mann, der gezeigt hat, wie schnell Agenten viral werden können.

Steinberger stellte eine Bedingung. OpenClaw müsse offen bleiben. 8 OpenAI stimmte zu. Das Projekt soll in eine Stiftung überführt werden, unterstützt, aber nicht kontrolliert von OpenAI. 2 29 In dieser Zusage steckt ein Kalkül. OpenAI kann damit zugleich Innovationskraft signalisieren und sich als verantwortungsbewusster Akteur darstellen, der Offenheit nicht nur duldet, sondern organisiert. Und es kann die Agentenschicht als strategisches Terrain besetzen, ohne den offenen Charakter formal zu zerstören. 2 29 32

Denn die nächste Schlacht der KI wird nicht allein über Modellparameter geführt, sondern über die Agentenebene. Wer definiert, wie autonome Systeme handeln, entscheidet über die Machtverteilung der digitalen Zukunft. Und wer die Schnittstellen in den Alltag kontrolliert, kontrolliert letztlich, was als Alltag gilt.

Europa, Regulierung und die globale Drift

Berichte deuten an, dass die europäische Regulierungsdichte ein Motiv für Steinbergers Schritt in die USA war. 4 Während Brüssel KI Richtlinien formuliert und sich bemüht, aus Datenschutz und Sicherheitsdenken ein Regelwerk zu machen, experimentiert Kalifornien. Europa wird dabei oft als Bremser beschrieben, Amerika als Beschleuniger. Das ist zu einfach, aber nicht ganz falsch.

Regulierung kann Innovation verlangsamen, sie kann zugleich Vertrauen schaffen. Ohne Regeln entsteht Wildwuchs, und Wildwuchs zieht Betrüger an. Der CLAWD Vorfall war eine Miniatur dieser Dynamik. 34 Eine offene Szene erzeugt Aufmerksamkeit, Aufmerksamkeit erzeugt Geldfantasien, und Geldfantasien erzeugen Missbrauch.

Gleichzeitig adaptieren chinesische Entwickler offene Software schnell, etwa indem sie OpenClaw mit DeepSeek kombinieren. 12 Offene Software kennt keine Zollgrenzen. Sie folgt der Logik des Netzes, und das Netz folgt der Logik der Geschwindigkeit.

So entsteht ein geopolitisches Bild, das weder in Silicon Valley Legenden noch in Brüsseler Verordnungsdeutsch ganz aufgeht. Agentensysteme werden weltweit erprobt, in unterschiedlichen Kulturen, mit unterschiedlichen Normen. Was in Europa als Datenschutzproblem gilt, kann anderswo als Effizienzgewinn gefeiert werden. Was hier als Sicherheitsrisiko gilt, kann dort als notwendiges Experiment gelten. 4 12 32

Ein Wendepunkt, kein Produkt

OpenClaw ist kein fertiges Produkt. Es ist ein Prototyp einer Epoche. Sein Wert liegt nicht nur in dem, was es kann, sondern in dem, was es sichtbar macht.

Erstens, die Vision einer Multiagentenwelt, in der spezialisierte Systeme kooperieren, erscheint plötzlich greifbar. 32 Zweitens, die Sicherheitsarchitektur hinkt hinterher. Prompt Injection bleibt ungelöst, Supply Chain Angriffe sind real, und das Skill Ökosystem ist zugleich Stärke und Risiko. 22 38 35 Drittens, die Plattformökonomie verschiebt sich. Wer die Handlungsschicht kontrolliert, kontrolliert nicht nur Software, sondern Verhalten.

Steinberger verkörpert dabei einen Typus Unternehmer, der in den klassischen Erzählungen des Tech Kapitalismus selten vorkommt. Er hat sein erstes Imperium gebaut, er hat sich ausgebrannt, er hat Geld verdient, er muss nichts mehr beweisen, außer vielleicht der eigenen Neugier. In dieser Haltung liegt Freiheit, und in Freiheit liegt Gefahr, weil sie Tempo ermöglicht.

Ob OpenClaw als Pionier oder als Warnung in die Geschichte eingeht, wird sich zeigen. Sicher ist nur, dass eine Schwelle überschritten ist. Die Ära der autonomen Agenten hat begonnen, nicht weil irgendein Konzern sie ausgerufen hat, sondern weil ein Bastelprojekt aus der Garage gezeigt hat, wie nahe die Technik bereits ist. 12 32

Und wie immer, wenn Technik nahe ist, folgt die Politik zu spät, die Wirtschaft zu schnell, und der Rest der Gesellschaft fragt sich erst hinterher, wann genau der Moment war, an dem aus einem Spiel Ernst wurde.

Im Artikel "Die Heimkehr der Denkmaschinen oder wir bauen uns eine Sekretärin" werden weitere Entwicklungen rund um KI Agenten beschrieben.

Quellen

1 Ankündigung von Sam Altman zur Verpflichtung von Peter Steinberger, Februar 2026
2 OpenAI Statement zur OpenClaw Stiftung und Multiagenten Strategie
3 Hintergrundberichte zu Peter Steinberger und PSPDFKit
4 Analyse zu EU Regulierung und KI Standortentscheidungen
5 Unternehmensdaten PSPDFKit und Insight Partners Investment
8 Öffentliche Stellungnahmen Steinbergers zu Offenheit und OpenAI
9 Sicherheitsanalysen zur tödlichen Trias in Agentensystemen
10 OpenClaw technische Dokumentation
12 GitHub Chronologie, Umbenennungen und Sicherheitswarnungen
14 Investitionsbericht Insight Partners 2021
16 GitHub Wachstumsstatistiken Januar 2026
18 Sicherheitsrecherchen zu Moltbook
22 Prompt Injection Analysen und Risiken agentischer Schnittstellen
26 Multi Modell Unterstützung in OpenClaw
27 Podcast Interview zur Entstehungsidee und frühen Experimente
29 Angaben zur geplanten Stiftungsstruktur
31 Beschreibung des Vibe Coding Ansatzes
32 Branchenanalysen zur Multiagentenära
33 O Reilly und Community Sicherheitsberichte zu offenen Instanzen
34 Cisco Sicherheitsanalyse und CLAWD Vorfall
35 Best Practice Empfehlungen zur Agentensicherheit und Skill Hygiene
36 Markenrechtsbezug Anthropic im Zusammenhang mit Clawdbot
38 Untersuchungen zu kompromittierten Skills und bösartigen Uploads

#OpenClaw #KI #KünstlicheIntelligenz #AgentenKI #AutonomeAgenten #MultiAgenten #OpenAI #GitHub #OpenSource #VibeCoding #PeterSteinberger #PSPDFKit #Sicherheit #PromptInjection #TechEthik #Digitalpolitik #ZukunftDerArbeit #Produktivität #Innovation #Kontrollverlust

Diskussion und Vertiefung: Sie können diesen Artikel mit meinem Brunhuber-Assistenten in ChatGPT weiter diskutieren.