KI-Agenten — Was sie wirklich können.
Der Begriff wird inflationär benutzt. Hier ist, was KI-Agenten tatsächlich sind, wann sie sinnvoll sind — und welche Risiken man kennen muss.
„Agent" ist 2025 eines der meistgenutzten und meistmissverstandenen Wörter in der KI-Welt. Manche meinen damit einen Chatbot mit Werkzeugzugang. Andere meinen autonome Systeme, die wochenlang selbstständig arbeiten. Der Unterschied ist enorm — für Entscheider ist er entscheidend.
Was ein KI-Agent ist — und was nicht
Ein KI-Agent ist ein System, das:
- Ein Ziel bekommt (statt eines einzelnen Prompts)
- Eigenständig einen Plan entwickelt, wie es das Ziel erreicht
- Werkzeuge nutzt (Web-Suche, Code-Ausführung, Dateioperationen, externe APIs)
- Mehrere Schritte sequenziell ausführt — ohne für jeden Schritt menschliche Eingabe zu benötigen
- Aus Zwischenergebnissen lernt und seinen Plan anpasst
Ein einfacher Chatbot ist kein Agent. Ein LLM, das auf eine Frage antwortet, ist kein Agent. Ein Agent handelt — nicht nur antwortet.
Was Agenten heute konkret können
Recherche-Agenten durchsuchen das Web, lesen Dokumente, synthetisieren Informationen zu strukturierten Berichten — ohne manuellen Eingriff. Beispiel: „Recherchiere alle öffentlichen Stellungnahmen zum Thema X aus den letzten 6 Monaten und erstelle eine strukturierte Übersicht."
Code-Agenten (Claude Code, GitHub Copilot Agent) analysieren bestehende Codebases, identifizieren Bugs, implementieren Features, schreiben Tests — über Stunden hinweg autonom. Claude Code hat in meiner eigenen Arbeit die Entwicklungszeit für Webprojekte um 60–70% reduziert.
Workflow-Agenten (n8n, Make mit KI-Nodes) orchestrieren mehrere Tools: E-Mail lesen → klassifizieren → relevante Information extrahieren → Antwort-Entwurf erstellen → zur Genehmigung vorlegen. Vollständig autonom bis zum letzten Schritt.
Analyse-Agenten verarbeiten große Dokumentenmengen: Alle Bürgeranfragen eines Monats analysieren, Themen clustern, Stimmungsbild erstellen, Handlungsempfehlungen ableiten.
Agenten sind besonders wertvoll bei Aufgaben, die viele Schritte, viele Quellen oder viele Iterationen erfordern — und bei denen die Gesamtrichtung klar ist, der Weg aber variabel.
Was Agenten noch nicht können — und woran man scheitert
- Verlässliche Langzeit-Autonomie: Agenten machen nach vielen Schritten Fehler, die sich aufschaukeln. Für kritische Prozesse ist menschliche Zwischenkontrolle noch notwendig
- Kontexttreue über sehr lange Aufgaben: Das „Gedächtnis" eines Agenten ist begrenzt — bei sehr langen Aufgaben verliert er den Gesamtkontext
- Unvorhergesehene Situationen: Agenten sind gut in definierten Räumen. Wenn sie auf unerwartete Situationen stoßen, eskalieren sie nicht immer korrekt
- Sicherheit und Nachvollziehbarkeit: Was hat der Agent genau gemacht? Warum? Logging und Auditierbarkeit sind bei ernsthafter Nutzung Pflicht
Wichtig für Verwaltung und Politik: Human-in-the-Loop
Bei allem, was rechtliche Konsequenzen hat, Außenwirkung erzeugt oder personenbezogene Daten verarbeitet, muss ein Mensch den finalen Schritt kontrollieren. Nicht als Bürokratie — als Notwendigkeit. Ein Agent, der autonom Bürgeranfragen beantwortet, ist technisch heute möglich. Er ist rechtlich und ethisch nur dann akzeptabel, wenn ein Mensch jede Antwort vor dem Versenden freigibt.
Wo der Einstieg in die Agenten-Welt sinnvoll ist
Starten Sie mit assistierten Agenten — Agenten, die Vorschläge machen, die ein Mensch bestätigt. Das reduziert das Risiko auf null und baut Vertrauen in die Technologie auf. Erst wenn das funktioniert und verstanden ist, kommt der nächste Schritt: Teile des Prozesses vollständig automatisieren.
Fragen zum Thema?
Ich beantworte sie persönlich.
30 Minuten Erstgespräch — kostenlos, kein Verkaufsgespräch. Ehrliche Einschätzung für Ihre Organisation.
Erstgespräch vereinbaren →