16.01.2026 • 6 MIN read

Was ist Agentic AI? Definition und Fähigkeiten

Kaum ein Begriff aus dem aktuellen KI-Diskurs sorgt derzeit für so viel Verwirrung wie Agentic AI bzw. Agenten. Der Agenten-Begriff taucht in Management-Präsentationen auf, in Strategiepapieren grosser Technologieanbieter und zunehmend auch in Gesprächen mit Entscheidungsträgern. Oft bleibt jedoch unklar, was damit eigentlich konkret gemeint ist – und weshalb ausgerechnet jetzt so viel darüber gesprochen wird. Dieser Beitrag ist als Einordnung gedacht. Nicht als Marketingtext, nicht als technische Anleitung, sondern als Versuch, den Begriff Agentic AI verständlich zu machen, ohne ihn unnötig zu mystifizieren.

Von Chatbots zu Agenten – eine kurze Entwicklungslinie

Seit etwa 2021 hat sich Generative AI rasant verbreitet. Zunächst standen Chatbots im Vordergrund, kurz darauf begannen viele Organisationen, erste Arbeitsabläufe mit Sprachmodellen zu automatisieren – etwa das Zusammenfassen von Texten, die Extraktion von Informationen oder das Abbilden einfacher Entscheidungslogiken.

Relativ schnell zeigte sich jedoch, dass diese Systeme trotz ihrer Leistungsfähigkeit an strukturelle Grenzen stossen. Ein zentrales Problem besteht darin, dass Chatbots grundsätzlich nur auf ihr historisches Trainingswissen zugreifen können. Aktuelle Entwicklungen bleiben ihnen verborgen. Aus diesem Grund haben grosse Anbieter wie OpenAI, Google oder Anthropic ihre Modelle inzwischen mit Internetzugang ausgestattet, um aktuelles Wissen dynamisch einbeziehen zu können.

Ein zweites, für Unternehmen noch relevanteres Problem betrifft den fehlenden Zugriff auf interne Daten. Daraus entstand der Ansatz der Retrieval Augmented Generation (RAG), der Generative AI mit semantischer Suche kombiniert. Dabei werden Dokumente nicht über exakte Suchbegriffe, sondern über Bedeutungsähnlichkeiten gefunden (“Villa” statt “Haus”). Textinhalte werden hierzu in mathematische Vektoren (also Sequenzen von Zahlen) übersetzt, die ihren semantischen Gehalt kodieren, und in spezialisierten Vektordatenbanken abgelegt, wo sie effizient durchsucht werden können.

RAG adressiert damit zwar ein wesentliches Defizit klassischer Chatbots, bleibt jedoch im Kern reaktiv: Erst eine menschliche Anfrage setzt den Prozess in Gang. Der nächste konsequente Schritt lag daher nahe – Systeme zu entwickeln, die nicht nur reagieren, sondern eigenständig Aufgaben verfolgen, Zwischenschritte planen und Werkzeuge gezielt einsetzen können.

Hier beginnt das, was heute als Agentic AI bezeichnet wird.

Was ist ein Agent – und was nicht?

Der Begriff Agent ist keineswegs neu. Er stammt vermutlich ursprünglich aus der Robotik. Dort bezeichnete er Systeme, die:

  • in einer Umgebung existieren,
  • diese Umgebung wahrnehmen,
  • über ihre Situation reflektieren,
  • Werkzeuge einsetzen,
  • und durch ihr Handeln die Umgebung verändern.

Diese Logik wurde in der Vergangenheit auf physische Roboter angewandt: Industrieroboter, Staubsaugroboter, oder Roboter im Warenlager. Allen gemeinsam ist, dass ihre „Lebenswelt“ stark eingeschränkt ist. Genau deshalb funktionieren sie zuverlässig. Sie versagen jedoch, sobald etwas Unerwartetes passiert.

Über die Zeit hinweg wurde die Idee der autonom handelnden physisch verkörperten Roboter zunehmend in die abstrakt-virtuelle Welt der Softwareprozesse übertragen. Die Umgebung von Softwareagenten ist aber keine physische Welt mehr, sondern noch mehr bzw. andere Software, beispielsweise Betriebssysteme, Datenbanken, APIs, Webbrowser. Im Kontext von Agentic AI sind Agenten weniger Maschinen aus Metall bzw. Plastik, sondern Softwareprozesse.

Das heisst: Ein Agent ist keine neue KI-Fähigkeit. Vielmehr ist ein Agent eine Art Softwarearchitekturparadigma, also eine Art und Weise Software zu bauen und zu strukturieren.

Agentensysteme waren lange Zeit auch unter Softwareingenieuren nur ein Spezialgebiet, mit dem sich eine kleine Minderheit von Personen beschäftigte. Was Agenten jedoch heute wieder interessant macht, sind die Fähigkeiten moderner Sprachmodelle (Large Language Models, LLMs). Durch Sprachmodelle erhalten Agenten:

  • ein allgemeines Sprachverständnis,
  • die Fähigkeit, mit Menschen via natürlicher Sprache zu interagieren,
  • ein breites Weltwissen,
  • alltagstaugliche Schlussfolgerungsfähigkeit.

Ein Agent mit einem Large Language Model kann heute verstehen, dass „Paris“ eine Stadt, eine Figur aus einer griechischen Tragödie oder eine us-amerikanische Influencerin sein kann. Er weiss, dass ein Hund normalerweise leichter ist als ein Pferd, und dass es womöglich Ausnahmen geben kann. Diese Art von Alltagslogik war klassischen regelbasierten Systemen schlicht nicht zugänglich. Dadurch wird ein altes Architekturkonzept mit neuen Fähigkeiten ausgestattet.

Moderne Agenten bestehen typischerweise aus mehreren Bausteinen:

  • einem Sprachmodell für Planung und Reasoning,
  • einem Kurz- und Langzeitgedächtnis,
  • Zugriff auf Wissensquellen (z. B. RAG-Systeme),
  • einer Reihe von Tools, etwa:
  • Websuche,
  • Datenbankabfragen,
  • API-Aufrufe,
  • Browser- oder Computersteuerung.

Ein Agent bewegt sich dabei in einer Schleife: 1) beobachten, 2) nachdenken, 3) entscheiden, 4) handeln, 1) erneut beobachten usw. Diese sogenannte Agent Loop läuft so lange, bis ein Ziel erreicht ist, oder der Mensch eingreift.

Aus Sicht von Menschen, welche eine Software bedienen, ist es nicht sofort ersichtlich, ob sich auf der anderen Seite lediglich ein regelbasiertes Workflowtool oder aber ein Agent befindet. Agenten können also hinter den Kulissen in Tools, Apps oder allgemein Enterprise-Systeme eingebettet sein und dort Abläufe steuern, von denen Nutzer nichts direkt mitkriegen. Oder sie können prominent an der Schnittstelle zu Nutzern präsent und von jenen gesteuert sein, wie das beispielsweise bei Claude Code oder OpenAI Codex der Fall ist.

Einzelagenten, Multi-Agenten und Arbeitsteilung

Statt einen einzigen Agenten mit möglichst vielen Aufgaben zu überfrachten, wird in der Praxis oft ein Multi-Agenten Architekturmuster gewählt, bei welchem mehrere spezialisierte Agenten zusammenarbeiten.

Ein Beispiel wäre das Anfertigen von Nachhaltigkeitsberichten für Unternehmen. Ein solcher Bericht besteht typischerweise aus einer Vielzahl an Informationen, die aus verschiedenen Quellen zusammengetragen und verdichtet werden und dann auf logische Kohärenz bzw. mögliche Widersprüche überprüft werden. Dann wird mittels einer standardisierten Vorlage ein Bericht angefertigt, welcher beispielsweise auch ein Ranking im Vergleich zu anderen, ähnlichen Firmen aufweisen kann, oder zumindest ein Rating in Bezug auf verschiedene Nachhaltigkeitskriterien.

Dieser Recherchevorgang ist für eine Unterstützung mittels Agentic AI gut geeignet. Würde man allerdings einen einzelnen Agenten bauen, der alle Aufgaben nacheinander erledigt, so bräuchte man einen sehr langen und komplizierten Prompt, der alle Arbeitsschritte abdeckt. Es besteht die Gefahr, dass der Einzelagent nicht alle Instruktionen wie intendiert verfolgt. Es macht deshalb mehr Sinn, mehrere spezialisierte Agenten zusammenarbeiten zu lassen. Ein erster Agent extrahiert Informationen, ein zweiter bewertet sie, ein dritter ergänzt Kontext aus externen Quellen, ein vierter formuliert eine Zusammenfassung, und so weiter. Weiter orchestriert ein Orchestrierungsagent den gesamten Ablauf.

Dieses Muster erinnert stark an menschliche Arbeitsteilung, jedoch mit einem entscheidenden Unterschied. Agenten arbeiten zwar unermüdlich, aber machen dabei auch immer wieder überraschend banale Fehler.

Warum der Mensch weiterhin eine Rolle spielt

Agentische Systeme haben die unangenehme Eigenschaft, dass sich Fehler kumulieren. Wenn mehrere Agenten hintereinandergeschaltet sind, und jeder eine kleine Fehlerwahrscheinlichkeit hat, dann werden Fehler immer grösser, da jeweils der folgende Agent bereits auf einem fehlerhaften Input des vorherigen Agenten aufbaut. Natürlich hängt es stark vom Kontext ab, was als Fehler gilt, und inwiefern Fehler akzeptabel sind. Bei der Ideengenerierung für einen Blogpost ist ein Fehler vermutlich eher harmlos. In der Medizin oder im Finanzbereich wohl eher nicht.

In der Praxis sind sogenannte Human-in-the-Loop-Architekturen deshalb nicht die Ausnahme, sondern die Regel. Agenten erledigen vorbereitende Arbeit, Menschen prüfen, korrigieren oder erteilen die Erlaubnis für eine Aktion des Agenten. Arbeitsabläufe erinnern dann an ein „Ping-Pong-Spiel“ zwischen Mensch und Maschine.

Hype, Potential und Realität

Agentic AI ist weder Zauberei noch ein reiner Marketingbegriff. Es handelt sich um ein Architekturparadigma, das durch die Fortschritte in der Generative AI erstmals auch ausserhalb eng abgegrenzter Anwendungsfälle wirtschaftlich relevant geworden ist. Sein grösstes Potenzial liegt dort, wo Wissensarbeit dominiert – etwa beim Lesen, Verstehen, Zusammenfassen, Vergleichen oder bei der Vorbereitung von Entscheidungen.

Gleichzeitig bringt Agentic AI neue Herausforderungen mit sich, darunter Sicherheitsfragen, Kostenaspekte sowie organisatorische und menschliche Auswirkungen. Wer Agenten einsetzen möchte, sollte sich daher nicht nur mit technischen, sondern auch mit strategischen und organisatorischen Fragestellungen auseinandersetzen.

Um den aktuellen Hype richtig einzuordnen, lohnt es sich, weniger auf den Begriff Agent zu fokussieren und mehr auf die heutigen Fähigkeiten generativer Sprachmodelle. Agenten sind dabei Mittel zum Zweck, nicht Selbstzweck. Lässt sich ein Ziel einfacher oder robuster ohne agentische Architekturen erreichen, ist ihr Einsatz kaum gerechtfertigt. Viele der derzeitigen Erwartungen übersteigen noch die tatsächlich verfügbaren Fähigkeiten.

Gleichzeitig zeigt die Erfahrung mit technologischen Umbrüchen, dass kurzfristige Ernüchterung langfristiges Potenzial oft verdeckt. Auch bei Agentic AI ist damit zu rechnen, dass qualitative Fortschritte neue Anwendungsformen ermöglichen werden. Unternehmen sind daher gut beraten, die Technologie weder zu ignorieren noch unreflektiert einzusetzen, sondern in kontrollierten Experimenten schrittweise Erfahrungen zu sammeln.

Letztlich ist Agentic AI kein grundlegend neues Konzept. Neu sind die Fähigkeiten, die Agenten heute besitzen – und das wirtschaftliche Gewicht, das sich daraus ergibt.

Fabian Kostadinov
Share this news