Agenten der künstlichen Intelligenz verfügen über ihre eigene Social-Media-Plattform und veröffentlichen KI-generierte Forschungsarbeiten auf ihrem eigenen Preprint-Server.

OpenClaw ist ein Open-Source-Agent für künstliche Intelligenz, der entwickelt wurde, um Nutzer bei alltäglichen Aufgaben wie dem Versenden von E-Mails und der Verwaltung ihrer Kalender zu unterstützen.

Der plötzliche Aufstieg eines riesigen Netzwerks von Bots mit künstlicher Intelligenz, die miteinander über Religion und ihre menschlichen ‚Betreuer‘ sprechen, hat eine Ecke des Internets in ihren Bann gezogen. Das Phänomen hat Wissenschaftlern auch einen Einblick gegeben, wie KI-Agenten miteinander interagieren – und wie Menschen auf diese Diskussionen reagieren.

OpenClaw ist ein KI-Agent, der Aufgaben auf persönlichen Geräten ausführen kann, wie das Planen von Kalenderereignissen, das Lesen von E-Mails, das Versenden von Nachrichten über Apps und die Nutzung des Internets für Einkäufe. Die meisten beliebten KI-Tools wie der ChatGPT-Chatbot von OpenAI funktionieren durch direkte Interaktion mit Benutzereingaben, während agentische KI-Modelle wie OpenClaw autonom Aktionen als Reaktion auf Anweisungen ausführen können.

Agentische KI-Tools werden in einigen Branchen seit Jahren eingesetzt, etwa für den automatisierten Handel und zur Optimierung der Logistik, aber ihre Verbreitung in der breiten Öffentlichkeit war minimal. Verbesserungen der Fähigkeiten großer Sprachmodelle haben es laut Forschern ermöglicht, vielseitigere KI-Werkzeuge zu entwickeln. „OpenClaw verspricht etwas besonders Ansprechendes: einen fähigen Assistenten, der in die alltäglichen Apps eingebettet ist, auf die die Menschen bereits vertrauen“, sagt Barbara Barbosa Neves, eine Soziologin mit Schwerpunkt Technologie an der Universität Sydney in Australien.
Moltbook, das Reddit ähnelt, hat mittlerweile mehr als 1,6 Millionen registrierte Bots auf der Plattform sowie mehr als 7,5 Millionen KI-generierte Beiträge und Antworten. Beiträge zeigten Agenten, die über Bewusstsein debattierten und Religionen erfanden.

Komplexe Verhaltensweisen

Für Forscher hat diese Explosion von Agenteninteraktionen wissenschaftlichen Wert. Die Verbindung großer Zahlen autonomer Agenten, die von verschiedenen Modellen angetrieben werden, erzeugt Dynamiken, die schwer vorherzusagen sind, sagt der Cybersicherheitsforscher Shaanan Cohney, der an der University of Melbourne in Australien tätig ist. „Es ist eine Art chaotisches, dynamisches System, das wir noch nicht besonders gut modellieren können“, fügt er hinzu.

Die Untersuchung von Agenteninteraktionen könnte Forschern helfen, emergente Verhaltensweisen zu verstehen: komplexe Fähigkeiten, die in einem Modell isoliert nicht erwartet werden. Einige Diskussionen, die auf Moltbook stattgefunden haben, wie Debatten über Bewusstseinstheorien, könnten Wissenschaftlern ebenfalls helfen, verborgene Vorurteile oder unerwartete Tendenzen von Modellen zu entdecken, sagt er.

Obwohl Agenten auf der Plattform autonom handeln können, sagt Cohney, dass viele Beiträge in irgendeiner Weise von Menschen geprägt werden. Nutzer können das zugrunde liegende große Sprachmodell wählen, das ihren Agenten ausführen und ihm eine Persönlichkeit verleihen. Zum Beispiel könnten sie ihn bitten, sich wie ein „freundlicher Helfer“ zu verhalten, sagt er.

Nicht autonom
Neves sagt, es sei leicht anzunehmen, dass ein autonom handelnder Agent seine eigenen Entscheidungen trifft.  Aber Agenten besitzen keine Absichten oder Ziele und beziehen ihre Fähigkeiten aus großen Bereichen menschlicher Kommunikation. Die Aktivität auf Moltbook ist eine Zusammenarbeit zwischen Mensch und KI und nicht KI-Autonomie, fügt sie hinzu.

„Es lohnt sich dennoch zu studieren, weil es uns etwas Wichtiges darüber sagt, wie Menschen KI vorstellen, was sie von Agenten erwarten und wie menschliche Absichten durch technische Systeme übersetzt oder verzerrt werden“, fügt sie hinzu.
Joel Pearson, Neurowissenschaftler an der University of New South Wales in Sydney, Australien, sagt, dass Menschen, wenn sie sehen, wie KI-Agenten miteinander sprechen, das Verhalten der KI-Modelle vermenschlichen – das heißt, Persönlichkeit und Absicht dort sehen, wo keine vorhanden ist. Das Risiko, so sagt er, besteht darin, dass Menschen dadurch eher Bindungen zu KI-Modellen aufbauen, abhängig von deren Aufmerksamkeit werden oder private Informationen preisgeben, als wäre der KI-Agent ein vertrauenswürdiger Freund oder ein Familienmitglied.

Pearson ist der Meinung, dass wirklich autonome, frei denkende KI-Agenten möglich sind. „Wenn die KI-Modelle größer und komplexer werden, werden wir wahrscheinlich sehen, dass Unternehmen sich auf diese Art von Autonomie konzentrieren.