top of page

Warum die KI-Skepsis wandert, aber nie verschwindet — und was das für Ihr Unternehmen bedeutet

  • Autorenbild: Marcus Machon
    Marcus Machon
  • 12. März
  • 12 Min. Lesezeit

Aktualisiert: vor 3 Tagen



Seit November 2022 beobachte ich ein Muster. Nicht bei der Technologie — bei den Menschen, die über sie urteilen.

Jede Abwehrposition gegen generative KI wird genau dann aufgegeben, wenn sie nicht mehr haltbar ist. Und sofort durch eine neue ersetzt — ohne dass die vorherige Fehleinschätzung eingestanden wird. In Gesprächen mit Fachbereichsleitungen, in LinkedIn-Debatten, in Fachmedien: Das Muster ist überall dasselbe.

Es hat einen Namen in der Psychologie. Und es ist älter als ChatGPT, älter als das Internet, älter als die Dampfmaschine.

Welches Muster zeigt die Reaktion auf generative KI?

Seit 2022 durchläuft die öffentliche und unternehmerische Reaktion auf generative KI eine Abfolge von Abwehrpositionen, die sich unter Evidenzdruck verschieben — ohne dass die jeweils vorherige Fehleinschätzung eingestanden wird. In der Psychologie nennt man das „Goalpost Moving” — die Torpfosten verschieben.

Minimalistisches Zeitachsen-Diagramm von 2022 bis 2026 mit dem Titel „Die wandernden Torpfosten der KI-Kritik“. Die fünf Jahres-Stationen sind mit weißen Karten beschriftet: „Stochastischer Papagei“, „Dampfmaschine“, „KI-Blase“, „Nur Spielerei“ und „Nur Beschleuniger“. Klare Struktur auf cremefarbenem Hintergrund mit Linien in dunklem Teal und Punkten in Messingfarbe.

Die Sequenz sieht in etwa so aus:

Phase 1 (2022/23): „Stochastischer Papagei. Plappert nur nach. Erledigt.” — Die erste Reaktion war kategorische Ablehnung. LLMs seien nichts weiter als statistische Textvorhersage ohne jedes Verständnis. Der Begriff stammt aus einem einflussreichen Paper von Bender et al. (2021) und wurde schnell zur Universalabwehr.

Phase 2 (2023/24): „Okay, ganz beeindruckend. Aber das ist wie bei der Dampfmaschine — am Ende entstehen mehr Jobs als wegfallen.” — Als die Fähigkeiten nicht mehr zu leugnen waren, wurde die Technologie historisch eingeordnet und damit relativiert.

Phase 3 (2024): „KI ist eine Blase, wie die Dotcom-Blase!” — Der Vergleich mit geplatzten Technologie-Hypes bot eine neue Verteidigungslinie, besonders nachdem Goldman Sachs im Sommer 2024 provokant fragte: „Too much spend, too little benefit?”

Phase 4 (2024/25): „Vibe Coding? Nette Spielerei, aber der Output ist Murks.” — Konkrete Anwendungsfälle wurden als qualitativ unzureichend abgetan. (Vibe Coding bedeutet: Programmieren durch natürlichsprachliche Anweisungen an eine KI, statt Code selbst zu schreiben.) Unter entsprechenden Posts häufen sich Kommentare wie „Du bist kein richtiger Entwickler, nur weil du mit KI codest.”

Phase 5 (2025/26): „KI-Tools sind nur Beschleuniger. Die wahre Kraft steckt im Menschen, der sie bedient.” — Die aktuell dominante Position: KI als harmloses Werkzeug, das bestehende Hierarchien und Kompetenzen nicht grundsätzlich in Frage stellt.

Jede einzelne dieser Einschätzungen war zum jeweiligen Zeitpunkt nachvollziehbar. Wirklich. Aber die Argumentation verschiebt sich immer genau dann, wenn die vorherige Position nicht mehr haltbar ist. Kein Eingeständnis, kein „da lag ich falsch” — einfach eine neue Verteidigungslinie.

Warum verschieben sich die Argumente gegen KI immer weiter?

Die schrittweise Verschiebung folgt psychologisch tief verankerten Mechanismen. Die Motivation — Schutz des beruflichen und persönlichen Selbstwerts — bleibt konstant, während die Rationalisierungen unter Evidenzdruck wechseln.

Kognitive Dissonanz bildet den Kern. Leon Festinger beschrieb 1957, was passiert, wenn zwei Überzeugungen in Konflikt geraten — etwa „Ich bin ein wertvoller Experte” und „KI kann vieles davon bereits schneller.” Statt die schmerzhafte Erkenntnis zuzulassen, wird die Bewertung der Technologie fortlaufend angepasst. Festinger beobachtete das bereits bei Endzeitkulten: Nach gescheiterten Prophezeiungen gaben die Mitglieder nicht auf — sie konstruierten neue Rationalisierungen. Seran et al. haben diesen Mechanismus 2025 in Frontiers in Artificial Intelligence erstmals spezifisch auf generative KI angewandt und „GenAI-induzierte kognitive Dissonanz” als eigenständiges Konstrukt eingeführt.

Motivated Reasoning beschreibt den Prozess dahinter. Ziva Kunda zeigte 1990 in einer der meistzitierten Arbeiten der Sozialpsychologie, dass Menschen Evidenz systematisch verzerrt bewerten, wenn ein gewünschtes Ergebnis auf dem Spiel steht. Das Tückische: Die Betroffenen erleben ihre Position als sachliche Einschätzung, nicht als emotionale Reaktion — Kunda nennt das die „Illusion der Objektivität.”

Und es geht über den Beruf hinaus. Es geht nicht nur um „Kann ich davon leben?“, sondern um „Bin ich noch besonders?” Wenn eine Maschine das kann, wofür ich jahrelang trainiert habe, wackelt nicht nur das Gehalt — sondern das Selbstbild. Thornton et al. haben 2025 im Fachjournal Cureus mit „AI Replacement Dysfunction” (AIRD) ein klinisches Konstrukt vorgeschlagen, das genau diese Reaktion beschreibt: Angst, Identitätsverlust und Leugnung der KI-Relevanz als dokumentierte Abwehrmechanismen. Eine koreanische Längsschnittstudie (2025, Nature Humanities and Social Sciences Communications, N=381) bestätigt: KI-Adoption reduziert die psychologische Sicherheit am Arbeitsplatz signifikant — was wiederum depressive Symptome steigert.

In Gesprächen mit Fachbereichsleitungen erlebe ich das regelmäßig. Niemand sagt: „Ich habe Angst, dass meine Kompetenz entwertet wird.” Die Formulierung lautet: „Für unsere Branche ist KI noch nicht relevant.” Oder: „Wir müssen erst unsere Daten in Ordnung bringen.” Beides kann stimmen — aber wenn sich die Begründung alle sechs Monate ändert, während die Schlussfolgerung identisch bleibt (nämlich: nichts tun), lohnt es sich, genauer hinzuschauen.

Warum fällt uns das Verschieben selbst nicht auf?

Es gibt ein Phänomen in der KI-Forschung, das dieses Muster auf den Punkt bringt: Tesler’s Theorem, auch bekannt als der „AI Effect.” Der Informatiker Larry Tesler formulierte es bereits um 1970: „Intelligenz ist immer das, was Maschinen noch nicht können.”

Sobald eine KI-Fähigkeit alltäglich wird — Navigation, Sprachübersetzung, Texterkennung — hören wir auf, sie als „künstliche Intelligenz” zu betrachten. Eine Studie von XandY Analytics (2024, N=1.527) hat das quantifiziert: Nur 31% der Befragten betrachten Navigations-Apps als KI. Selbst humanoide Roboter werden nur von 58% als KI eingestuft. Der Maßstab verschiebt sich lautlos — und genau das passiert auch in der KI-Kritik.

Wie sieht die aktuelle Abwehrposition in der Praxis aus?

Phase 5 — „KI ist nur ein Beschleuniger” — ist die eleganteste aller Abwehrpositionen, weil sie KI nicht ablehnt, sondern einordnet. Und zwar so, dass bestehende Hierarchien und Kompetenzen unangetastet bleiben.

Diese Phase zeigt sich in verschiedenen Varianten, je nach Berufsfeld:

Entwickler: „LLMs können Boilerplate, aber darüber hinaus wird es schwer ohne viel Zuarbeit.” (Boilerplate ist repetitiver Standardcode — Importe, Grundgerüste, Konfigurationen — den Entwickler ungern von Hand schreiben.) Ein erfahrener Entwickler beschrieb mir kürzlich, er nutze GitHub Copilot hauptsächlich für genau diesen repetitiven Code und Kommentare. Das stimmt — heute. Vor 18 Monaten war die Grenze „kann überhaupt keinen brauchbaren Code.” Vor 12 Monaten „kann keinen Code mit Kontext.” Jetzt „kann Boilerplate.” Die Grenze verschiebt sich — und jedes Mal fühlt sich die neue Position stabil an.

Senior-Architekten: „LLMs verstehen nicht, warum der Code so aussieht, wie er aussieht.” Das Argument des impliziten Wissens — warum bestimmte Codezeilen absichtlich „hässlich” sind, weil sie einen obskuren Fehlerfall abfangen, den ein Junior oder eine KI sofort „sauber” umschreiben würde. Technisch fundiert. Aber das Wort „niemals” ist eine kategorische Behauptung über die Zukunft einer Technologie, die sich alle sechs Monate fundamental verändert.

Change-Berater: „KI ist kein 6-Monats-Projekt. Sie brauchen einen Drei-Jahres-Prozess mit Roadmap, OKRs und quartalsweisen Iterationen.” Die Technologie wird nicht abgewertet, sondern in einen Prozess eingebettet, den nur Beratende steuern können. Klingt nach Verantwortung — die Funktion ist Relevanzschutz.

Philosophen: „KI hat kein Bewusstsein, keine Intention, kein Selbst.” Alles richtig (oder ehrlicher/ korrekter: wir wissen es nicht). Und — wie ein kluger Beobachter anmerkte — ökonomisch komplett irrelevant. Denn die wenigsten Mitarbeitenden werden dafür bezahlt, ein Bewusstsein zu haben. Sie werden dafür bezahlt, Probleme zu lösen. Die relevante Frage ist nicht „Ist KI intelligent?“, sondern „Ist KI fähig genug, um ökonomisch wertvoll zu sein?”

Die Behauptung „KI versteht nicht wirklich” ist die Abwehrposition, die sich am wissenschaftlichsten anfühlt. Nicht weil sie bewiesen ist — sondern weil wir nicht mal eine einheitliche Definition von „Verstehen” haben, an der wir sie messen könnten.

Kennen wir dieses Muster aus der Technikgeschichte?

Das Muster der wandernden Abwehrpositionen lässt sich bei nahezu jedem großen Technologieumbruch dokumentieren — mit frappierend ähnlichen Phasen und null Eingeständnissen. Aber bevor ich die Parallelen aufzeige, eine wichtige Einschränkung, die zu selten gemacht wird.

Könnte dieser Vergleich selbst ein Denkfehler sein?

Ja, und es wäre unehrlich, das zu verschweigen. Das Argument „Bei der Dampfmaschine / beim iPhone / beim Internet haben sie auch falsch gelegen” leidet unter einem klassischen Survivorship Bias — einem Überlebensirrtum. Wir erinnern uns an die Technologien, die sich durchgesetzt haben, und vergessen die, bei denen die Skeptiker Recht hatten.

Und diese Liste ist lang: 3D-Fernsehen, Google Glass, das Metaverse (Meta investierte über 80 Milliarden Dollar), NFTs, Segway, Mini-Disc, Windows Phone, Google+, das Semantic Web. Laut Gartner durchläuft nur etwa ein Fünftel der gehypten Technologien den vollständigen Hype Cycle erfolgreich. Standardmäßige Skepsis liegt statistisch häufiger richtig als blinder Optimismus.

Wenn ich also gleich Larry Ellison, Steve Ballmer und BlackBerry als Beispiele anführe, dann zeige ich bewusst die Fälle, in denen die Skeptiker falsch lagen — nicht die Fälle, in denen sie Recht hatten. Das sollten Sie beim Lesen im Hinterkopf behalten. Ich glaube trotzdem, dass die Parallelen aufschlussreich sind — aber nicht weil sie beweisen, dass KI sich zwangsläufig durchsetzt, sondern weil sie das psychologische Muster der Verschiebung zeigen.

Larry Ellison und Cloud Computing

Der Oracle-CEO liefert die perfekteste Parallele. 2008 bezeichnete er Cloud Computing als „complete gibberish” und „insane.” 2009 relativierte er: bloß ein Computer an einem Netzwerk. 2012 akzeptierte er den Begriff — ohne die vorherige Ablehnung zu erwähnen. Wenig später behauptete er, mit NetSuite das Cloud-Konzept selbst erfunden zu haben. Ab 2014 aggressives Cloud-Marketing. Sechs dokumentierte Positionswechsel, null Eingeständnisse.

Steve Ballmer und das iPhone

Im Januar 2007 lachte der Microsoft-CEO auf der Bühne über Apples iPhone: „No chance” auf signifikanten Marktanteil. Er prognostizierte 2–3% Marktanteil. Apple erreichte über 40% in den USA. 2015 das Reframing: Er wünschte, er hätte früher an die Subventionierung durch Mobilfunkanbieter gedacht. Die Fundamentalkritik wurde nie eingestanden — nur umgedeutet.

Geoffrey Hinton und die Radiologen: Goalpost-Moving in Echtzeit

Dieser Fall zeigt das Muster besonders eindrücklich, weil er von einem KI-Enthusiasten stammt — und damit beweist, dass Goalpost-Moving keine Einbahnstraße ist. 2016 sagte der „Godfather of AI”: Man solle aufhören, Radiologen auszubilden, denn in fünf Jahren werde KI besser sein. Neun Jahre später: Die Radiologen-Zahlen sind gestiegen. Die Mayo Clinic wuchs um 55% auf 400 Radiologen. Die USA erleben den größten Radiologen-Mangel der Geschichte. Hintons Position verschob sich lautlos: Von „Ersetzung innerhalb von 5 Jahren” (2016) über „10–15 weitere Jahre” (2024) zu „Kombination aus KI und Radiologen” (2025). Von Ersetzung zu Augmentierung — klassisches Goalpost-Moving, nur in die andere Richtung. Wichtige Einschränkung: Der Grenznutzen einer Technologie, die zu 95 % richtig liegt, aber bei den restlichen 5 % unvorhersehbar halluziniert, sinkt in Hochrisiko- und Unternehmensumfeldern drastisch. Skepsis gegenüber KI ist daher strukturell etwas völlig anderes als Skepsis gegenüber einem Touchscreen-Telefon.

Verschieben sich sogar die Maßstäbe, mit denen wir KI bewerten?

Ja. Das Goalpost-Moving zeigt sich nicht nur in Meinungen, sondern auch in der Art, wie KI-Fähigkeiten gemessen werden. Jeder Benchmark — also ein standardisierter Test, mit dem KI-Modelle verglichen werden — der „gelöst” wird, wird durch einen anspruchsvolleren ersetzt.

Der Stanford AI Index 2025 bestätigt das explizit: KI meistert neue Benchmarks schneller als je zuvor. MMLU, der bekannteste Wissenstest für Sprachmodelle, brauchte etwa dreieinhalb Jahre von seiner Einführung bis zur Sättigung. Sein Nachfolger MMLU-Pro wurde bereits nach 18 Monaten annähernd gelöst. Und das Muster beschleunigt sich: ARC-AGI-1, ein Test für abstraktes logisches Denken, galt lange als unlösbar. Ende 2024 erreichte OpenAIs o3 über 87% — woraufhin ARC-AGI-2 veröffentlicht wurde, auf dem dieselben Methoden unter 5% erzielen. Humanity’s Last Exam, ein Benchmark mit 2.500 Expertenfragen über 100 Disziplinen, startete im Januar 2025 bei 2,7% und liegt Anfang 2026 bereits bei 37,5%.

In meiner Erfahrung sind subjektive, aber konsistente Praxistests im eigenen Anwendungsfall oft aussagekräftiger als jeder Hersteller-Benchmark. Wer zwei LLMs parallel nutzt und ständig vergleicht, entwickelt ein Gespür für die tatsächliche Leistungsfähigkeit, das kein Benchmarking-Paper ersetzen kann.

Was zeigen die Adoptionsdaten für den DACH-Mittelstand?

Die KI-Nutzung in deutschen Unternehmen hat sich zwischen 2023 und 2026 fast verdreifacht. Gleichzeitig sank der Anteil der Unternehmen, die KI als „vorübergehenden Hype” bezeichnen, von 26% auf 17% — und erstmals sagt eine Mehrheit: „Unternehmen ohne KI haben keine Zukunft.”

Bitkom (März 2026): 41% der Unternehmen (ab 20 Beschäftigten) nutzen KI — 2023 waren es 15%. 83% sehen KI als Chance, 51% sagen erstmals: Ohne KI keine Zukunft. Aber: 62% ordnen sich selbst als KI-Nachzügler ein, 33% berichten von höheren Kosten als erwartet.

KfW-Mittelstandspanel (Februar 2026): 20% der Mittelständler nutzen KI — ein fünffacher Anstieg in sechs Jahren. Bei wissensbasierten Dienstleistern liegt der Wert bei 29%.

Deloitte „Deutschland im KI-Paradox” (März 2026): Deutschland hat überraschend die höchste KI-Adoptionsrate aller 14 befragten Länder — 41% der Unternehmen geben an, dass über 60% ihrer Mitarbeitenden KI-Tools verwenden. Aber nur 5% nutzen agentische KI zur Prozessneugestaltung, und über zwei Drittel erzielen erst nach zwei oder mehr Jahren ROI.

Und dann die Ernüchterung: Eine NBER-Studie vom Februar 2026 (rund 6.000 Führungskräfte) kommt zum härtesten Befund der bisherigen Datenlage: Über 80–90% der befragten Unternehmen berichten über die letzten drei Jahre keinen messbaren Effekt auf Produktivität oder Beschäftigung durch KI. Goldman-Sachs-Chefökonom Jan Hatzius formulierte es Anfang 2026 unverblümt: Der KI-Beitrag zur US-Wirtschaft sei „basically zero.”

Doch so ernst diese Befunde zu nehmen sind – und sie verdienen seriöse Beachtung –, so wichtig ist die Frage dahinter: Messen wir hier tatsächliche Wirkungslosigkeit, oder messen wir die Selbsteinschätzung von Organisationen, die noch mitten im Lernprozess stecken? Und Phase 6 wird vermutlich nicht ‚Bringt ja nichts' lauten, sondern: ‚KI hat katastrophal versagt.' Denn ja – es werden kritische Fehler passieren, Menschen werden zu Schaden kommen, und die Risiken dieser Technologie sind real und teils noch unabsehbar. Doch wer einzelne Versagensfälle nutzt, um pauschal eine gesamte Technologie abzulehnen, ohne gleichzeitig deren Chancen, Vorteile und Mehrwerte zu benennen, betreibt keine Analyse, sondern Narrativ-Pflege. Genau deshalb braucht es jetzt mehr denn je objektive, seriöse Wissenschaft – ohne Bias, ohne Agenda, in beide Richtungen.

Ist KI-Skepsis im Unternehmen nicht einfach rational?

Die stärkste Gegenposition verdient eine faire Darstellung — denn sie ist nicht nur nachvollziehbar, sondern epistemologisch fundiert.

Das Bayesianische Argument: Schrittweise Anpassung von Überzeugungen bei neuer Evidenz ist mathematisch optimal. (Bayesianisches Denken bedeutet vereinfacht: Ich starte mit einer Einschätzung und passe sie an, sobald neue Informationen vorliegen — je stärker die Evidenz, desto stärker die Anpassung.) Wer 2022 skeptisch war und seither inkrementell angepasst hat, handelt näher am rationalen Ideal als jemand, der sofort alle Skepsis aufgab. Für GPT-3 und frühere Modelle war die „Stochastischer Papagei”-Kritik wissenschaftlich vertretbar.

Der Survivorship Bias (den ich weiter oben bereits angesprochen habe): Wir erinnern uns an iPhone und Internet, nicht an Google Glass und das Metaverse. Skepsis ist statistisch häufiger berechtigt als nicht.

KI-Enthusiasten betreiben exakt dasselbe Goalpost-Moving — und das wird viel zu selten thematisiert. Elon Musk verspricht seit 2015 jedes einzelne Jahr „Full Self-Driving bis Jahresende.” Elf Jahre, null Einlösungen. Stand März 2026 fährt Teslas Robotaxi-Dienst in Austin mit Sicherheitsmonitoren an Bord — Teslas eigene Website beschreibt FSD weiterhin als „Supervised.” Sam Altman schrieb im September 2024, OpenAI wisse nun, wie man AGI baue. Ein Jahr später, nach dem enttäuschenden GPT-5-Launch (3.000 Nutzer petitionierten für die Rückkehr zu GPT-4o), erklärte er, AGI sei „kein nützlicher Begriff mehr.” Eine randomisierte Studie von METR ergab sogar, dass erfahrene Entwickler mit KI-Tools 19% länger brauchten — obwohl sie glaubten, schneller zu sein.

Die Torpfosten der KI-Fähigkeiten wurden in den letzten Jahren primär von den Herstellern durch aggressives Marketing völlig unrealistisch gesetzt (z. B. „AGI kommt in 2 Jahren“).

Goalpost-Moving ist keine Einbahnstraße. Es findet auf beiden Seiten statt. Und genau diese Symmetrie ist vielleicht die wichtigste Erkenntnis: Nicht Optimismus gegen Pessimismus ist das eigentliche Problem, sondern die Unfähigkeit beider Seiten, Unsicherheit auszuhalten, ohne sie in verfrühte Gewissheit umzudefinieren.

Wie unterscheidet man rationale Skepsis von psychologischer Abwehr?

Isometrische, technische Linienzeichnung im Blaupausen-Stil auf cremefarbenem Grund, die zwei sich trennende Pfade zeigt. An der Weggabelung steht ein messingfarbenes Fragezeichen. Der linke Pfad ist mit „Rationale Aktualisierung“ in dunklem Teal beschriftet, der rechte Pfad mit „Goalpost Moving“ in Terrakotta.

Der Unterschied zeigt sich in einem einzigen, beobachtbaren Verhalten: Rationale Akteure gestehen explizit ein, dass ihre vorherige Einschätzung falsch war, bevor sie eine neue formulieren. Abwehrmechanismen produzieren stumme Positionswechsel.

Robert Metcalfe tat genau das 1997 — er hatte das Internet als kurzlebig vorhergesagt und verarbeitete seinen gedruckten Artikel vor Publikum in einem Mixer zu Brei. Clifford Stoll schrieb 2010 über seinen berühmten Skeptiker-Artikel von 1995: Er nannte ihn seinen größten öffentlichen Fehler. Ironischerweise hatte Stoll damals unter anderem geschrieben, Online-Datenbanken würden niemals die Tageszeitung ersetzen — 17 Jahre später stellte ausgerechnet Newsweek, das Magazin, in dem der Artikel erschien, den Druck ein und ging komplett online.

Die Masse der beobachteten KI-Skepsis zeigt das Gegenteil: stumme Positionswechsel ohne Reflexion. Wer 2023 „Stochastischer Papagei” argumentierte und 2025 „nur ein Beschleuniger” sagt, ohne die Lücke zu adressieren, aktualisiert nicht — er verteidigt.

Mein Eindruck (und es ist ein Eindruck, keine Gewissheit): Beide Prozesse laufen gleichzeitig ab. Die berechtigte Skepsis gegenüber KI-Hype — der fehlende EBIT-Impact bei über 80% der Unternehmen, die prognostizierten 115 Milliarden Dollar kumulierter Verluste bei OpenAI bis 2029, Gartners „Trough of Disillusionment” — koexistiert mit psychologisch motivierter Abwehr. Die Unterscheidung erfordert keinen psychologischen Röntgenblick. Sie erfordert eine einzige Frage an sich selbst:

Habe ich in den letzten zwei Jahren einmal gesagt: „Da lag ich falsch”?

Wer das mit Ja beantworten kann, betreibt vermutlich rationale Aktualisierung. Wer seine Position alle sechs Monate wechselt, ohne die vorherige je zu korrigieren, sollte sich fragen, ob das noch Sachlichkeit ist — oder Selbstschutz.

Langfristig betrachtet wird sich die KI-Debatte jedoch nicht durch psychologische Einsichten entscheiden, sondern durch harte Ökonomie. Die momentane kognitive Dissonanz in den Unternehmen entsteht nicht primär aus Angst vor Identitätsverlust (auch wenn das bei Entwickelnden und Kreativen stark mitspielt), sondern aus dem Spannungsfeld zwischen enormen Lizenzkosten für Tools (wie Copilot) und dem ausbleibenden ROI in den Bilanzen.

Vorausschauend betrachtet: Wir steuern nicht auf eine Phase zu, in der alle Widerstände psychologisch gebrochen werden und KI alles übernimmt. Wir steuern auf eine Konsolidierungsphase zu, in der KI entzaubert und schlicht zu einer unsichtbaren Datenbank-Schnittstelle wird. Mit gravierenden Chancen und Risiken. Oder auch nicht. Time will tell, aber logische Annahmen sprechen für massive Auswirkungen auf die gesamte Gesellschaft.

Was bedeutet das konkret für Ihr Unternehmen?

Hand aufs Herz: Ich glaube, es ist ein Fehler, sich zu spät mit KI zu beschäftigen. Nicht irgendwann. Jetzt.

Und bevor jemand an ein Drei-Jahres-Programm mit Roadmap, OKRs und sechsstelligem Budget denkt — genau das ist eine der Abwehrpositionen, die ich oben beschrieben habe. KI-Einstieg muss nicht groß, teuer oder riskant sein.

Ein Beispiel: Ein paar Lizenzen für KI-Tools. Oder ein kleiner Rechner, komplett isoliert vom Firmennetzwerk, auf dem ein Multi-Agent-System läuft — ausschließlich mit unkritischen Daten. Marketing-Content generieren, Lead-Recherche automatisieren, interne Prozesse simulieren. Echte Kosten: wenige hundert bis tausend Euro. Die eigentlichen Kosten sind die Arbeitszeit der Mitarbeitenden, die sich damit beschäftigen — aber genau diese Investition zahlt sich aus.

Denn meiner Erfahrung nach passiert etwas, wenn Menschen KI nicht nur diskutieren, sondern live erleben: Die abstrakten Abwehrpositionen lösen sich auf. Nicht weil jemand sie widerlegt, sondern weil die eigene Erfahrung stärker ist als jedes Argument. Und plötzlich fallen einem zig Use Cases auf, bei denen selbst ein einfaches Setup enorme Kosten einsparen kann.

Mein Lösungsansatz für eine pragmatische und fast kostenlose KI Einführung in den meisten Unternehmen: KI-Strategie Mittelstand: Ohne Transformationsprojekt starten

Ich schreibe das nicht, um KI-Skepsis in Unternehmen lächerlich zu machen. Skepsis ist gesund. Und auch dieser Blogbeitrag könnte einem Denkfehler unterliegen — dem Confirmation Bias, bei dem ich unbewusst die Beispiele auswähle, die meine These stützen. Ich habe versucht, das durch die faire Darstellung der Gegenposition zu kompensieren.

Aber warten hat Kosten und vielleicht sogar existentielle Wettbewerbsnachteile. Und die Datengrundlage — Governance, Berechtigungen, Informationsarchitektur — muss man nicht zuerst perfektionieren (mal ehrlich: das macht sowieso niemand isoliert). Aber man muss sie parallel im Blick haben. Experimentieren und aufräumen gleichzeitig, nicht nacheinander. Ein pragmatischer Ansatz, der Compliance und Produktivität abwägt, statt das eine als Vorwand zu nutzen, das andere aufzuschieben.

Die Deloitte-Studie vom März 2026 zeigt das Dilemma in einer Zahl: 57% der Organisationen stufen ihre eigenen Daten als „nicht KI-ready" ein. Wenn Sie warten, bis alles perfekt aufgeräumt ist, warten Sie für immer. Wenn Sie stattdessen klein anfangen, lernen und parallel die Grundlagen schaffen, sind Sie vorbereitet — egal was Phase 6 bringt.

Sie möchten wissen, wie gut Ihre Microsoft-365-Umgebung auf KI vorbereitet ist?


Marcus Machon berät Mittelständler bei Microsoft 365 Governance, Prozessautomatisierung und KI-Readiness. Er schreibt über die Schnittstelle von Unternehmensrealität und künstlicher Intelligenz.

bottom of page