Mehr als 40% der Agentic-AI Projekte werden abgebrochen (Gartner)

Nov 17
Gartner prognostiziert, dass bis 2027 mehr als 40 Prozent aller Agentic-AI-Projekte abgebrochen werden.

Viele interpretieren das als Warnung vor unreifen Modellen, unzuverlässigen Tools oder fehlender Infrastruktur. Doch diese Erklärung greift zu kurz.

Wenn man genauer hinsieht, scheitern Agenten nicht an Modellen, Kontextfenstern oder Retrieval-Strategien. Sie scheitern an etwas Unsichtbarerem: an fehlender Bedeutung, fehlender Verantwortung, fehlender Semantik und fehlender Kultur.

Nicht die Technologie ist der Engpass – sondern die Organisation, die versucht, sie zu nutzen.

Diese Erkenntnis ist nicht neu. Auch Agentic AI macht lediglich Strukturen und Konzepte sichtbar, die nicht mehr zur modernen Datenwertschöpfung passen:

  • Organisationen, die Daten sammeln, aber deren Nutzen auf Reportingkaskaden zur Identifikation von Planabweichungen beschränkt bleibt. 
  • Teams, die neue Tools einführen oder auf neue Versionen migrieren, aber keine Kultur verändern. 
  • Verantwortlichkeiten, die für Systeme gelten, aber nicht für autonome Entscheidungen, die diese Systeme irgendwann treffen sollen.

Um zu verstehen, warum Agenten wirklich scheitern, wollen wir im Folgenden einmal gezielt dorthin schauen, wo es ungemütlich wird.

Fragmentierung ist organisatorische Gewohnheit

Viele Organisationen erklären ihre fehlende Fähigkeit zur effektiven Datennutzung über technische Begriffe: Tool-Wildwuchs, Schatten-IT, uneinheitliche Pipelines, veraltete Systeme. Doch diese Phänomene sind keine technischen Zufälle – sie sind das Resultat einer organisationalen Gewohnheit aus einer Zeit in der vor allem Effizienz wichtig war.

Teams wählen Werkzeuge nach lokalen Optimierungen. Historisch gewachsene Systeme bleiben bestehen, weil niemand die Autorität besitzt, ihre Bedeutung neu zu bestimmen. Und alte Anwendungen gelten als „Legacy“, obwohl nicht ihre Architektur das Problem ist, sondern die Bedeutungen, die sie konservieren.
Der wahre Engpass lautet daher nicht: „Wir haben zu viele Tools“ oder „Wir haben alte Systeme“. Der Engpass lautet: Niemand hat den Mut zu definieren, wie die Organisation an den Schnittstellen funktionieren soll.
Diese Fragmentierung hat zwei Gesichter:

Erstens: Der aktuelle Wildwuchs
Teams nutzen unterschiedliche ETL-Strecken, unterschiedliche RAG-Pipelines, unterschiedliche Reporting-Logiken. Jeder optimiert sich selbst – niemand optimiert die Organisation.
Ein Agent, der mit diesen Strukturen interagiert, wird zwangsläufig inkonsistente, widersprüchliche oder überlappende Informationen erhalten. Das ist kein Modellfehler. Das ist ein Architekturfehler – und zwar ein sozialer, kein technischer. 

Zweitens: Die „eingefrorene Fragmentierung“ der alten Systeme
Viele sogenannte Legacy-Systeme sind nicht deshalb problematisch, weil sie technisch alt sind. Sie sind problematisch, weil sie Bedeutungen eingefroren haben, die niemand mehr verantwortet: 

  • überholte Geschäftsregeln, die nie neu verhandelt wurden,
  • implizite Definitionen, die niemand dokumentiert hat,
  • Datenstrukturen, die zu einer Organisation passen, die es längst nicht mehr gibt.

Auch ein modernes Tool kann diese Bedeutungen nicht rekonstruieren. Ein Agent kann sie nicht .„modernisieren“. Beide laufen gegen dieselbe Wand.

Die Konsequenz:
Fragmentierung ist ein semantischer Zerfall, der dadurch entsteht, dass eine Organisation Entscheidungen vermeidet – und damit Bedeutung vermeidet.
Deshalb scheitern Agenten nicht, weil sie die Tools nicht beherrschen. Sie scheitern, weil sie die Organisation nicht verstehen können.

Unternehmen haben ein Bedeutungsproblem 

Organisationen produzieren täglich Tausende von Begriffen, Definitionen, Kategorien und Abkürzungen. Doch nur wenige haben eine gemeinsame semantische Architektur.

Zwei Teams verwenden denselben Begriff – und meinen Unterschiedliches. Menschen kommen damit zurecht, weil sie Bedeutung situativ verhandeln. Sie stellen Rückfragen, sie interpretieren Zwischentöne, sie ziehen Erfahrungswissen heran.  - Agenten können das nicht.

Ein Agent übernimmt Begriffe wörtlich. Wenn die Organisation heterogene Bedeutungen pflegt, erhält der Agent zwar „mehr Kontext“, aber nicht mehr Bedeutung. Im Gegenteil: Er erhält semantisches Rauschen. Und genau dieses Rauschen führt zu Fehlentscheidungen, Doppelinterpretationen, absurden Ableitungen.

Deshalb scheitern so viele Projekte, die mit „besseren Daten“ und „mehr Kontext“ arbeiten wollen. Sie versuchen, einen semantischen Mangel mit technischem Überfluss zu beheben. Das funktioniert nicht.

Ein Agent braucht nicht mehr Informationen, sondern eindeutigere Bedeutungsräume. Solange Semantik nicht gepflegt wird, verschlechtert mehr Kontext die Leistung.

Organisationen können Daten nicht interpretieren – und deshalb auch nicht entscheiden

Wenn Sie bis hierhin gelesen haben, sind Ihnen die semantischen Brüche bewusst. Der nächste Engpass wird zur zwangsläufigen Folge:
Viele Organisationen können Daten schlicht nicht interpretieren. Und ohne Interpretationsfähigkeit gibt es keine Entscheidungsfähigkeit, sondern unzählige Meetings.

Data Literacy geht in die falsche Richtung
Viele Unternehmen haben den Engpass Mensch erkannt - und investieren massiv in Data Literacy. Sie schulen Tools, Funktionen, Dashboards. Doch Data Literacy befähigt Menschen lediglich, Werkzeuge zu bedienen – nicht, Realität zu verstehen.
Die eigentliche Engpasskompetenz ist eine andere: Interpretationskompetenz.

Interpretationskompetenz heißt:
  • Unsicherheit zu erkennen statt zu kaschieren,
  • Hypothesen zu prüfen statt Zahlen mechanisch zu reproduzieren,
  • Ambiguität auszuhalten statt vorschnell Erklärungen zu konstruieren,
  • Daten nicht nur zu lesen, sondern zu deuten.

Diese Kompetenz ist selten, weil sie historisch nicht gebraucht wurde. Die meisten Rollen wurden jahrzehntelang darauf trainiert, Daten stabil zu berichten – nicht, sie kritisch zu interpretieren.
Ein Agent aber arbeitet mit Wahrscheinlichkeiten, Szenarien, Optionen. Er konfrontiert Menschen mit Unsicherheit – und trifft damit auf eine Organisation, die nicht gelernt hat, damit umzugehen.

Ohne klare Entscheidungsklassen bleibt jeder Agent wirkungslos
Semantik erzeugt Orientierung – aber nur, wenn Rollen existieren, die aus dieser Orientierung Handlungen ableiten. In vielen Organisationen fehlen diese Rollen jedoch. Es gibt definierte KPIs, Glossare und Modelle – aber keine Instanz, die konsequent entscheidet, was sie bedeuten.
Das führt zum Kernproblem: Organisationen besitzen keine Entscheidungsmodelle für datenbasierte Situationen.

Es ist unklar:
  • Wer entscheidet was
  • innerhalb welcher Grenzen
  • mit welchem Risikobudget,
  • nach welchen Kriterien,
  • mit welchen Eskalationswegen.

Ein Agent kann in einer solchen Umgebung nicht operieren. Er trifft Entscheidungen in einem strukturellen Vakuum. Er erzeugt Optionen ohne Entscheidungsraum.

Agenten benötigen klar definierte Entscheidungsklassen, Verantwortlichkeiten, Grenzen und Adressaten, die Ergebnisse interpretieren und Konsequenzen bewerten können. Fehlt das, scheitert jede Agentic-AI-Initiative – unabhängig von technischen Fähigkeiten.

Das Ergebnis:
Agenten scheitern nicht daran, dass Menschen zu wenig wissen.
Sie scheitern daran, dass Menschen zu wenig deuten – und Organisationen sie weder dazu befähigen noch unterstützen.

Organisation besitzen keine Experimentierkultur

Die meisten Organisationen haben keine Kultur, in der Menschen mit Daten experimentieren können. Sie sind geprägt von Berichtspflichten, Entscheidungsketten, Absicherungsmechanismen. Menschen warten auf Freigaben, folgen Prozessen, produzieren Berichte – aber sie experimentieren nicht. Sie explorieren nicht. Sie testen nicht. Sie interpretieren nicht.
Das ist kein theoretisches Problem. Es ist ein gelebtes. Ein Beispiel aus meinem eigenen Arbeitsalltag zeigt das sehr deutlich:

Die HubSpot-Erfahrung: Alles richtig gemacht – und dennoch ist nichts passiert
Als wir HubSpot einführten, erklärten wir Prozesse, Daten, Felder, Bedeutungen. Die Teams verstanden die Abläufe, hielten Vorgaben ein, pflegten sauber, stimmten sich ab. Doch sie verstanden nicht, warum sie das tun sollten.

Unsere Absicht war klar: ein Werkzeug bereitzustellen, das ihre Arbeit erleichtert.

Ihre Interpretation war eine andere:
  • Sie fürchteten Kontrolle.
  • Sie glaubten, Transparenz diene vor allem „nach oben“.
  • Sie sahen Mehraufwand, nicht Mehrwert.

Rückblickend war der Fehler einfach:
Wir hatten mit der Lösung begonnen.
Nicht mit dem Problem.
Und noch weniger mit der Kultur. 

Wir glaubten, Bedeutung ließe sich verordnen.
Dass die Logik des Tools sich automatisch in die Logik der Menschen übersetzt. - Hat sie nicht.

Heute sehe ich viele Datenteams in genau dieser Situation: Technisch perfekt. Organisatorisch wirkungslos.

Weil die Organisation keine echte Experimentierkultur hat.

40% der Agentenprojekte scheitern – und die übrigen 60% funktionieren auch noch nicht

Wenn man diese unbequemen Wahrheiten zusammenfügt, wird klar, warum die Gartner-Prognose so hoch ist. Agentic AI ist keine technische Disziplin.
Sie ist eine Struktur-, Bedeutungs- und Kulturdisziplin.

Und deshalb sollten Tools und Kontextmanagement nur 25 Prozent einer Lösung ausmachen.

Die anderen 75 Prozent bestehen aus:
  • gemeinsamer Semantik,
  • klaren Verantwortungsmodellen,
  • organisationaler Klarheit,
  • gelebter Experimentierkultur,
  • und echter Interpretationskompetenz.

Agenten benötigen Bedeutung, bevor sie Kontext nutzen können.
Verantwortung, bevor sie handeln.
Kultur, bevor sie Mehrwert erzeugen.

Wie Datareus diese Herausforderung löst

Die eigentliche Herausforderung beginnt dort, wo Agenten enden: bei den Menschen, ihren Routinen, ihren blinden Flecken und ihren organisationalen Gewohnheiten. Wer den Gartner-Befund ernst nimmt, muss einsehen, dass Agentic AI nicht am Modell scheitert, sondern an der fehlenden Fähigkeit einer Organisation, Bedeutung verlässlich herzustellen. Und genau an diesem Punkt setzt unser Vorgehen an: nicht als technische Antwort, sondern als strukturiertes Betriebsmodell für Datenkompetenz, Semantik, Verantwortung und echte Wirkung entlang der Wertschöpfung.

Der erste Schritt besteht darin, die Organisation wieder in Kontakt mit ihren eigenen Problemen zu bringen. Nicht durch Reports, sondern durch Hypothesen, die man prüft – und die man zu prüfen wagt. In unseren Programmen beginnen wir nie mit Architektur oder Tooling, sondern mit einer systematischen Klärung dessen, was überhaupt verbessert werden soll. Diese Problemorientierung zwingt Teams, sich von routinierten Deutungen zu lösen: Welche Wirkung verfolgen wir? Welche Kennzahlen machen Fortschritt sichtbar? Welche Annahmen müssen wir testen? Auf diese Weise entsteht eine fachliche Schärfe, die technologische Lösungen erst sinnvoll anschlussfähig macht.

Doch Problemverständnis allein genügt nicht. Ohne klare Verantwortungsmodelle bleibt jede Initiative ein Strohfeuer. Deshalb arbeiten wir mit kleinen Kernteams, die Verantwortung nicht delegieren, sondern leben: interdisziplinär, stabil, durch alle Phasen hindurch. Wie in vielen realen Projekten zeigt sich dabei, dass Momentum und Lernfähigkeit oft mehr Wirkung entfalten als reine Expertise.

Ein Team, das versteht, warum es ein Datenprodukt baut, entwickelt eine ganz andere Energie als ein Team, das lediglich Anforderungen abarbeitet. Genau deshalb orientieren sich unsere Phasen bewusst an Lernschleifen – ausprobieren, aufbereiten, weitergeben – statt an klassischer Projektlogik.

Der dritte zentrale Baustein ist Semantik. Viele Unternehmen unterschätzen ihren Wert – bis sie versuchen, ein scheinbar einfaches Datenprodukt in die Breite zu bringen. Unterschiedliche Definitionen, abweichende Granularitäten, widersprüchliche KPIs: All das lässt sich nicht durch ein Tool „vereinheitlichen“.
Es muss im Dialog zwischen Fachdomäne, Datendomäne und IT geklärt werden. Diese Klarheit – oft im sogenannten Bounded Context verdichtet – ist der unsichtbare Kern jeder erfolgreichen Dateninitiative. Sie entscheidet darüber, ob ein Agent später überhaupt in der Lage ist, konsistent zu handeln.

Datenkompetenz

Darauf aufbauend entsteht die Fähigkeit, Daten wirksam zu inszenieren. Nicht durch Dashboards als Dekoration, sondern als narrative Übersetzung von Bedeutung:

Warum ist diese Information wichtig? Was soll sie auslösen? Wie erkenne ich Veränderung?
Teams lernen, Daten so zu gestalten, dass sie Orientierung geben, statt Komplexität zu erhöhen. Und genau hier entsteht der kulturelle Effekt: Menschen beginnen, mit Daten zu arbeiten, statt sie nur zu dokumentieren. Sie entwickeln eine Praxis des Experimentierens – und damit ein neues berufliches Selbstverständnis.

Damit diese Entwicklung nicht im Kleinen steckenbleibt, braucht es eine Bewegung die bottom-up und top-down getragen wird. Unsere Programme sind bewusst so konzipiert, dass sie nicht nur Lösungen erzeugen, sondern Kultur.
Kernteams wachsen zu Multiplikatoren, Erfahrung wird systematisch in Lernformate überführt, und Communities sorgen dafür, dass Wissen nicht vereinzelt bleibt. Es entsteht ein schrittweises, gut abgestimmtes Skalierungsmodell, das technische Fähigkeiten, Semantik, Governance und menschliches Lernen miteinander verzahnt – und damit das Fundament, das Agentic AI wirklich braucht: eine Organisation, die Bedeutung erzeugen kann, bevor sie sie automatisiert.

So entsteht ein Ansatz, der den Gartner-Befund nicht fürchtet, sondern beantwortet: indem er die Ursache behebt, nicht die Symptome. Genau darin liegt der Wert von Datareus – nicht als Tool-Integrator, sondern als Architekt eines Umfelds, in dem Datenkompetenz, Verantwortung und Technologie sich gegenseitig verstärken.
Erstellt mit