dot.coaching - Warum KI deine organisatorischen Probleme nicht lösen kann

9 Minuten Lesezeit
14. April 2026
dot.coaching - Warum KI deine organisatorischen Probleme nicht lösen kann
14:15

Viele Organisationen glauben, sie führen AI Agents ein. In Wirklichkeit legen sie ein neues Werkzeug auf ein altes Problem und machen dieses Problem dabei unsichtbarer, nicht kleiner. Das ist keine Hypothese aus dem Lehrbuch. Das ist eine Beobachtung aus der Praxis.

Eine Organisation, mehrere hundert Menschen, verteilte Teams, komplexe Abhängigkeiten. Über Jahre gewachsen, zunehmend fragmentiert. Entscheidungen verzögern sich. Eskalationen versanden. Teams arbeiten nebeneinander, selten miteinander. Die Führung hat erkannt, dass die Zusammenarbeit nicht so funktioniert, wie sie sollte. Entscheidungslogiken werden zunehmend intransparenter. Teams arbeiten nebeneinander, selten miteinander. Tragende Konstrukte wie klare Wertschöpfung, kombiniert mit kognitiv erfassbaren Systemen werden zunehmend überlagert von den Beziehungen zwischen den Menschen. Es ist wichtiger zu wissen, wer Antworten hat und nicht, wo die Antworten dokumentiert sind. Alle sind nett zueinander. Nicht weil sie sich besonders mögen, sondern weil es in der Organisation ohne Beziehung keine Zusammenarbeit gibt.

Die Antwort: Ein gemeinsames Zusammenarbeitsmodell soll her. Soll die fehlenden Prozesse deklarieren, Entscheidungslogiken wieder explizit machen und den Druck aus dem sozialen System nehmen. Denn eines ist klar, wenn sich die Entscheidungslogiken fast ausschliesslich auf das soziale System verschieben, wird es schwieriger, konstruktiv kritisches Feedback zu geben. Man möchte es sich ja nicht mit den Kollegen verscherzen. Allzuschnell ist man ja selbst wieder abhängig von anderen. Was es also braucht, ist eine umfassende Beschreibung, wie in der Organisation zusammen gearbeitet werden soll. Und ein AI-Experte wird engagiert, der zeigen soll, wie künstliche Intelligenz die Zusammenarbeit verbessern kann.

Was folgt, sind fünf Use Cases für den Einsatz von AI Agents. Sorgfältig formuliert. Mit echten Schmerzpunkten aus der Organisation verknüpft. Und trotzdem entsteht beim Lesen ein Unbehagen. Weil die eigentliche Frage nie gestellt wird: Ist die Organisation überhaupt bereit für das, was sie einzuführen glaubt?

Was ist ein Agent - und warum macht der Unterschied etwas aus?

Der Begriff "AI Agent" ist in aller Munde. Und wie viele Begriffe, die schnell populär werden, verliert er dabei an Präzision. Wer schon ein bisschen länger im Business ist erinnert sich vielleicht an die Anfänge von Agile. Auf einmal war alles und jeder Agile. Ähnliches lässt sich heute beobachten. AI kann und macht vermeintlich alles und wird als Lösung für fast alles versprochen.

Es lohnt sich, kurz innezuhalten und zu unterscheiden. Nicht aus akademischem Interesse, sondern weil die Verwechslung praktische Konsequenzen hat.

ASSISTENT Reaktiv Antwortet auf Fragen Fasst zusammen & erklärt Generiert Text via Algorithmus GENERATIVE AI / CHATBOT AUTOMATISIERUNG Regelbasiert Wenn A, dann B Vordefinierte Schritte Verlässlich, statisch WORKFLOW / SCRIPT AGENT Zielorientiert Plant selbstständig Wählt Werkzeuge situativ Trifft eigene Entscheide AKTEUR, KEIN WERKZEUG dot consulting AG

Ein Assistent antwortet auf Fragen. Er ruft Informationen ab, fasst zusammen, erklärt. Er ist reaktiv und handelt, wenn man ihn fragt. Verbunden mit einem Sprachmodell reden wir hier oft von einer generativen AI. Generativ deshalb, weil die Antworten mittels eines Algorithmus generiert werden. Unsere Fragen mögen besonders schlau in einem Prompt versteckt sein, aber am Ende ist es eine Logik, die Wörter zu Sätzen zusammenbaut und uns dabei Intelligenz suggeriert, wo keine ist.

Eine Automatisierung führt vordefinierte Schritte aus. Wenn A, dann B. Regelbasiert, wiederholbar, verlässlich, solange die Welt so bleibt, wie sie beim Programmieren war. Automatisierung haben wir schon sehr lange. Mit AI wird sie nun interessanter verpackt, aber nicht zwingend intelligenter.

Ein Agent macht etwas Anderes. Er bekommt ein Ziel und plant selbstständig, wie er es erreicht. Er wählt Werkzeuge situativ aus, trifft im Prozess eigenständige Entscheidungen und passt sein Vorgehen an, wenn sich die Lage ändert. Er ist nicht reaktiv, sondern zielorientiert. Ein gutes Beispiel ist die Prozesskette des Requirements Engineerings, das Erheben, Dokumentieren, Prüfen & Abstimmen und Verwalten von Anforderungen. Agenten könnten da zukünftig durchaus spannend sein, indem sie Prozessschritte übernehmen und selbstständig entscheiden, welche Modelle gewählt oder verfeinert werden sollen.

Diese Unterscheidung ist kein technisches Detail. Es ist ein fundamentaler Unterschied in der Art, wie ein System in einer Organisation wirkt.

Denn ein Agent, der wirklich autonom handelt, ist kein Werkzeug mehr. Er ist ein Akteur. Mit allem, was das für Rollen, Verantwortung und Zusammenarbeit bedeutet.

Die Use Cases aus dem beschriebenen Projekt bewegen sich klar im Bereich von Assistent und Automatisierung. Sie zeigen auf, wie auf Fragen hinsichtlich Prioritäten, Deadlines und Impediments geantwortet werden soll. Im Kern: ein erweiterter Chatbot. Das wäre an sich kein Problem, wenn diese Lösung nicht als "Agents" bezeichnet würde. Diese Verwechslung ist keine Kleinigkeit, sie erzeugt falsche Erwartungen und verhindert die eigentlich notwendige Frage: Was will die Organisation mit dieser Technologie wirklich erreichen - und ist sie dafür überhaupt bereit?

Analyse: Solution looking for a Problem

Schaut man sich die fünf Use Cases genauer an, fällt ein Muster auf.

  • Prioritäten ändern sich ohne nachvollziehbare Begründung.
  • Entscheidungsrechte sind unklar.
  • Eskalationen versanden.
  • Teams arbeiten in Silos.
  • Schlechte Nachrichten werden zu spät kommuniziert.

Das sind keine Informationsprobleme. Das sind Symptome einer Organisation, die strukturell unter Druck steht.

Die vorgeschlagene Antwort lautet trotzdem: Ein AI-gestütztes System soll die richtigen Informationen zur richtigen Zeit an die richtigen Menschen liefern. Wer wissen will, warum eine Priorität geändert wurde, fragt den Assistenten. Wer einen Blocker eskalieren will, loggt ihn per Sprachbefehl. Wer nicht weiss, wer eine Entscheidung treffen darf, schlägt im digitalen RACI nach.

Die Logik dahinter ist verständlich. Wenn Menschen nicht wissen, was sie wissen müssten, dann liefern wir ihnen die Information. Schneller, einfacher, direkter.

Aber diese Logik hat einen blinden Fleck.

Sie setzt voraus, dass das Problem fehlende Information ist. In der beschriebenen Organisation ist das Problem ein anderes:

  • fehlende Klarheit über Entscheidungslogiken,
  • fehlende Verbindlichkeit in der Zusammenarbeit,
  • fehlende psychologische Sicherheit, um Probleme offen anzusprechen.

Diese Probleme löst kein Informationssystem. Es dokumentiert sie allenfalls effizienter.

Dieses Muster ist nicht neu. Es zeigt sich immer wieder, wenn Technologie auf organisationale Dysfunktion trifft. Die Problemanalyse wird verkürzt, weil eine attraktive Lösung bereits im Raum steht. Die Energie fliesst in die Implementierung, nicht in das Verstehen. Und die eigentliche Frage, was hier wirklich nicht funktioniert und warum, bleibt ungestellt.

Solution looking for a Problem nennt man das. Die Lösung ist fertig. Das passende Problem wird im Nachhinein gesucht.

Das Ergebnis ist selten eine bessere Organisation. Es ist eine Organisation, die ihre Dysfunktion jetzt auch noch digital verwaltet. Eine Organisation weiter wegschaut und notwendige Veränderungen nicht in Angriff nimmt.

Diagnose: A Fool with a Tool is still a Fool

Die beschriebene Organisation befindet sich in einer Situation, die auf den ersten Blick widersprüchlich wirkt.

Sie hat in den letzten Jahren viel verändert. Neue Strukturen wurden eingeführt. Rollen wurden umbenannt. Frameworks wurden adaptiert. Auf dem Papier arbeitet die Organisation agil. Es gibt Sprints, Product Owner, Agile Release Trains. Die Sprache der Transformation ist präsent.

Und trotzdem funktioniert die Zusammenarbeit nicht. Entscheidungen werden vermieden. Silos bestehen fort, jetzt unter neuen Namen. Teams, die eigentlich cross-funktional arbeiten sollten, schotten sich ab. Menschen tragen fünf bis zehn Rollen gleichzeitig, ohne dass irgendjemand gefragt hätte, ob das realistisch ist.

Was ist passiert?

Die Antwort ist unbequem: Es hat keine echte Transformation stattgefunden. Was stattgefunden hat, ist eine Umbenennung. Aus Abteilungen wurden Teams. Aus Projektleitern wurden Product Owner. Aus Statusmeetings wurden Daily Standups. Die Strukturen darunter, die Entscheidungslogiken, die Machtverteilung, die Zusammenarbeitsmodelle, blieben weitgehend unangetastet.

Das Ergebnis sind neu bemalte Silos.

Und in dieses System wird nun AI eingeführt. Mit dem Versprechen, die Zusammenarbeit zu verbessern, Entscheidungen zu beschleunigen, Transparenz herzustellen.

Aber ein Werkzeug, das in ein dysfunktionales System eingeführt wird, übernimmt die Logik dieses Systems. Wer versucht, ein nicht-triviales System durch ein Werkzeug trivial zu machen - vorhersehbar, steuerbar, optimierbar -erzeugt keine Lösung. Er erzeugt die Illusion einer Lösung. Es macht nicht besser, was nicht funktioniert. Es macht es schneller. Und sichtbarer wird die Dysfunktion dadurch auch nicht, denn die Energie der Organisation richtet sich nun auf die Implementierung des neuen Tools, nicht auf die Auseinandersetzung mit den eigentlichen Ursachen.

Hinzu kommt ein weiteres Phänomen, das in dieser Organisation besonders deutlich sichtbar ist. Die Menschen, die hier arbeiten, sind hochqualifizierte Fachexperten. Wissenschaftlich geprägt, tief spezialisiert, gewohnt, in ihrem Fachgebiet souverän zu agieren. Methodenkompetenz, also die Fähigkeit, in komplexen, interdependenten Projekten strukturiert zusammenzuarbeiten, ist in diesem Umfeld kaum entwickelt. Sie kommt in Stellenprofilen nicht vor. Sie wird in der Personalentwicklung nicht gefördert.

Das ist kein Vorwurf. Es ist eine strukturelle Lücke, die in vielen wissenschaftlich geprägten Organisationen existiert. Aber es bedeutet: Wenn diese Menschen nun mit AI-Werkzeugen ausgestattet werden, ohne dass die methodische Basis vorhanden ist, verstärkt die Technologie nicht die Stärken. Sie verstärkt die Lücken.

A Fool with a Tool is still a Fool. Der Satz klingt härter, als er gemeint ist. Es geht nicht um die Menschen. Es geht um das System, das sie in diese Situation gebracht hat.

Warum niemand es sagt: Verhältnisse, Verhalten, Haltung

Es gibt eine Frage, die in diesem Projekt niemand laut gestellt hat.

Nicht: Welche Use Cases können wir mit AI abdecken?
Sondern: Haben wir die Basis, auf der AI sinnvoll wirken kann?

Das ist kein Zufall. Und es ist auch keine individuelle Schwäche eines einzelnen Beteiligten. Es ist das Ergebnis einer Struktur, die genau das verhindert.

Der AI-Experte wurde explizit für diese Aufgabe geholt. Er sitzt in einem Projekt mit klaren Erwartungen, einem definierten Auftrag und einem Publikum, das auf Antworten wartet. In dieser Konstellation ist es ausserordentlich schwer, innezuhalten und zu sagen: Ich bin mir nicht sicher, ob wir hier die richtigen Fragen stellen. Oder noch direkter: Ich glaube, wir verstehen das Problem noch nicht gut genug.

Das hat wenig mit persönlichem Mut zu tun. Es hat viel mit psychologischer Sicherheit zu tun. Und psychologische Sicherheit ist kein individuelles Merkmal. Sie entsteht, oder eben nicht, durch die Verhältnisse, in denen Menschen arbeiten.

Wenn eine Organisation gelernt hat, dass schlechte Nachrichten nicht willkommen sind. Wenn Eskalationen in schwarzen Löchern verschwinden. Wenn Menschen mit zehn Rollen gleichzeitig jonglieren und keine Zeit haben, grundlegende Fragen zu stellen. Dann entsteht ein Klima, in dem das Sichtbarmachen von Problemen riskanter wirkt als das Liefern von Lösungen.

VERHÄLTNISSE Eskalationen versanden Intransparente Entscheide Keine psych. Sicherheit VERHALTEN Schwierige Fragen meiden Attraktive Konzepte liefern Unsicherheit verschweigen HALTUNG Lösung liefern statt Problem benennen Dysfunktion verwalten statt lösen ... verstärkt die Verhältnisse AI WIRD EINGEFÜHRT Das Muster wird nicht gelöst — es wird digitalisiert. dot consulting AG

Das Verhalten der Beteiligten, das Umgehen schwieriger Fragen, das Produzieren attraktiver Konzepte, das Schweigen über Unsicherheiten, ist in diesem Licht kein Charakterproblem. Es ist eine rationale Reaktion auf dysfunktionale Verhältnisse.

Und genau hier liegt die eigentliche Herausforderung für Organisationen, die AI einführen wollen. Nicht die Technologie ist das Problem. Sondern die Frage, ob die Verhältnisse so gestaltet sind, dass ehrliche Auseinandersetzung überhaupt möglich ist. Ob Menschen sagen können, was sie nicht wissen. Ob Unsicherheit als Information gilt und nicht als Schwäche.

Wo das nicht der Fall ist, wird AI kein Katalysator für bessere Zusammenarbeit. Sie wird ein weiteres Element in einem System, das gelernt hat, Probleme zu verwalten statt zu lösen.

Weg nach vorne: Erst die Basis, dann die Technologie

AI Agents werden kommen. In vielen Organisationen sind sie bereits da, in ersten Piloten, in Experimenten, in ambitionierten Roadmaps. Die Frage ist nicht mehr ob, sondern wie Organisationen diesen Schritt gehen.

Und genau hier liegt die Weichenstellung.

Technologie kann nur verstärken, was bereits vorhanden ist. Sie kann funktionierende Zusammenarbeit effizienter machen. Sie kann klare Entscheidungslogiken beschleunigen. Sie kann Transparenz dort erhöhen, wo Transparenz bereits gewollt ist. Was sie nicht kann: strukturelle Unklarheit auflösen, Vertrauen herstellen oder eine Organisation in etwas verwandeln, was sie noch nicht ist.

Das bedeutet: Wer AI Agents sinnvoll einführen will, muss zuerst verstehen, auf welcher Basis er das tut.

Drei Fragen helfen dabei, diese Basis zu prüfen.

Erstens: Sind unsere Entscheidungslogiken geklärt?

Nicht auf dem Papier. Sondern in der gelebten Praxis. Wissen die Menschen in der Organisation wirklich, wer was entscheiden darf, wer einbezogen werden muss und wer informiert wird? Wenn ein Agent künftig Entscheidungsprozesse unterstützen soll, muss diese Klarheit zuerst existieren. Sonst automatisiert er die Unklarheit.

Zweitens: Wie gehen wir mit Fehlern und Unsicherheit um?

Ein Agent, der autonom handelt, wird Fehler machen. Er wird in Situationen geraten, die er falsch einschätzt. Wie eine Organisation damit umgeht, hängt nicht von der Technologie ab, sondern von der Kultur. Organisationen, die Fehler bestrafen und Unsicherheit verstecken, werden auch mit Agents so umgehen. Die Technologie macht dieses Muster nur sichtbarer.

Drittens: Haben wir die Methodenkompetenz, um Mensch-Agent-Zusammenarbeit zu gestalten?

Das ist die am häufigsten übersehene Frage. Zusammenarbeit zwischen Menschen ist bereits komplex. Zusammenarbeit zwischen Menschen und autonomen Systemen ist es noch mehr. Sie braucht neue Rollenklarheit, neue Formen der Verantwortungsübernahme, neue Feedbackschleifen. Organisationen, die heute schon Mühe haben, Rollen klar zu definieren, werden diese Komplexität nicht durch Technologie lösen. Sie müssen sie zuerst methodisch entwickeln.

Diese drei Fragen sind kein Hindernis für die Einführung von AI. Sie sind die Voraussetzung dafür, dass die Einführung etwas bewirkt.

Ausblick: Die Organisationen, die davon profitieren werden

Die Diskussion um AI in Organisationen wird in den nächsten Jahren an Intensität gewinnen. Der Druck, Technologie einzuführen, wird steigen. Von aussen, durch den Markt und den Wettbewerb. Von innen, durch Erwartungen, Neugier und den Wunsch, nicht den Anschluss zu verlieren.

Das ist verständlich. Und es ist kein Grund zur Skepsis gegenüber der Technologie.

Es ist aber ein Grund zur Klarheit über die eigene Ausgangslage.

Die Organisationen, die von AI Agents wirklich profitieren werden, sind nicht zwingend die technologisch agilsten. Sie sind die organisational reifsten. Die, die ihre Entscheidungslogiken kennen. Die, die Fehler als Information behandeln. Die, die Zusammenarbeit nicht nur fordern, sondern strukturell ermöglichen.

Für alle anderen gilt: Der Einsatz von AI verschiebt das Problem nicht. Er vertieft es.

Die gute Nachricht ist, dass organisationale Reife kein Zufallsprodukt ist. Sie lässt sich entwickeln. Mit der richtigen Diagnose, dem richtigen Vorgehen und der Bereitschaft, unbequeme Fragen zu stellen, bevor man attraktive Antworten implementiert.

Wie stabil ist die Basis deiner Organisation?

Bevor AI Agents eingeführt werden, lohnt sich eine ehrliche Auseinandersetzung mit den Verhältnissen, die bereits heute die Zusammenarbeit prägen. Sind Entscheidungslogiken wirklich geklärt, nicht auf dem Papier, sondern in der gelebten Praxis? Wie geht die Organisation mit Fehlern und Unsicherheit um? Und ist die methodische Basis vorhanden, um Mensch-Agent-Zusammenarbeit überhaupt gestalten zu können? Wenn du das Muster aus diesem Beitrag bei dir erkennst, führe wir gerne ein erstes Orientierungsgespräch mit dir, kostenlos, ohne Agenda, mit dem Ziel, gemeinsam zu verstehen, wo deine Organisation heute steht.

 

 

Autor

Tobias Ellenberger

Tobias arbeitet an der Schnittstelle von Organizational Development und Leadership. Sein Fokus liegt darauf, Klarheit in komplexen Systemen zu schaffen, indem er die Wechselwirkungen von Verhältnissen, Verhalten und Haltung sichtbar macht und Organisationen dabei unterstützt, wirksamere Strukturen, Entscheidungslogiken und Formen der Zusammenarbeit zu entwickeln. Er begleitet Führungsteams und cross-funktionale Organisationen in Veränderungsprozessen, immer modellbasiert, reflektiert und mit einem klaren systemischen Blick. Was seine Arbeit auszeichnet: analytische Tiefe, visuelle Denkmodelle und eine ruhige, präzise Art, Komplexität verständlich zu machen. Seine Themen reichen von Teamdynamik und Führung über Organisationsdesign bis hin zu Transformationslogiken. Immer mit dem Ziel, Wirkung nicht operativ, sondern im System zu erzeugen.

Keine Kommentare

Teile deine Meinung

Werde per Email über neue Blogs informiert