top of page

KI-Strategie im Mittelstand: Warum Sie kein Transformationsprojekt brauchen

  • Autorenbild: Marcus Machon
    Marcus Machon
  • vor 5 Tagen
  • 14 Min. Lesezeit

Die meisten KI-Studien sind für Unternehmen wertlos. Nicht weil sie falsch sind, sondern weil sie das Falsche messen. Wenn Unternehmensberater in einem Laborexperiment 40 % bessere Ergebnisse liefern, sagt das wenig über Ihren Vertriebsleiter. Und wenn CEOs berichten, KI bringe keinen Nutzen, sagt das wenig über die Fachbereichsleiterin, die seit drei Monaten ihre Marktrecherchen mit KI macht.

Ich arbeite seit dem Release von ChatGPT 3.5 aktiv mit KI-Werkzeugen. Dieser Beitrag richtet sich an Geschäftsführende, Fachbereichsverantwortliche und interessierte Mitarbeitende, die wissen wollen, wie eine KI-Strategie im Mittelstand pragmatisch aussehen kann. Es geht nicht um maschinelles Lernen in der Produktion und nicht um alle KI-Features von Microsoft oder anderen Anbietern. Es geht um generative KI als Denk- und Arbeitswerkzeug. Ich verzichte bewusst auf technisches Fachvokabular. Wo es tiefer geht, verlinke ich weiterführende Beiträge.

Drei verbundene Symbole: Zahnrad (Macher), Schloss (Tresor), Sprechblase (Denker). Text: "Sie entscheiden, was wohin geht."
Das Drei-Ebenen-Modell: Tresor, Denker, Macher. Drei getrennte Welten, ein Mensch als Schnittstelle.

Bringt KI im Unternehmen wirklich etwas?

Wenn Sie die Nachrichtenlage verfolgt haben, sind Sie vermutlich verwirrt. PwC befragte 4.454 CEOs weltweit: 56 % berichten von keinerlei finanziellem Nutzen durch KI (29th Global CEO Survey | PwC). Eine NBER-Studie mit fast 6.000 Unternehmen in vier Ländern kommt zum gleichen Ergebnis: Über 80 % melden keine messbare Veränderung (Firm Data on AI | NBER). Gleichzeitig sagt BCG: KI-Vorreiter wachsen 1,7-mal schneller. Harvard-Forschende messen +40 % bessere Ergebnisse in einem Experiment. Alle seriös. Alle widersprüchlich.

Die Auflösung: Jede dieser Studien hat methodische Schwächen, nur unterschiedliche. Die negativen Studien messen harte Geschäftszahlen wie Umsatz und Kosten. Das ist solide, verfehlt aber Effekte wie bessere Entscheidungen oder weniger Fehler, die erst mit Verzögerung sichtbar werden. Die positiven Studien haben andere Probleme: BCG vergleicht die digital reifsten 5 % aller Firmen mit dem Rest, ohne zu wissen, ob die nicht auch ohne KI schneller gewachsen wären. Harvard testet Elite-Berater mit fiktiven Aufgaben im Labor. Und die Studien, die beeindruckende Produktivitätszahlen melden, fragen oft nur nach dem Gefühl, nicht nach dem Ergebnis. Dazu kommt: Die meisten positiven Studien werden von Organisationen finanziert, die KI-Beratung verkaufen. Die unabhängigen kommen zu nüchterneren Ergebnissen.

Die ehrliche Antwort: Wir wissen es aktuell vielleicht nicht genau. Die Forschung hält mit der Geschwindigkeit der Technologie nicht mit. Was wir wissen: KI kann bei bestimmten Aufgaben helfen. Wie groß der echte Geschäftswert ist, kann heute niemand seriös beziffern. Nicht die Studien, keine Unternehmensberatung, und nicht dieser Blogbeitrag. Was allerdings auffällt: KI-Investitionen im deutschen Mittelstand sinken, während der Gesamtmarkt steigt (Der deutsche Mittelstand reduziert KI-Investitionen im Jahr 2025, Studie zeigt | MarketScreener Deutschland). Ob das in drei Jahren ein Problem sein wird, weiß niemand. Aber wenn es eines wird, ist Aufholen deutlich teurer als Ausprobieren.

Mein persönlicher Eindruck: Die meisten Studien messen Erfahrungen primär aus 2025. Die Qualität der aktuellen KI-Modelle hat sich seitdem spürbar verändert. Die Art, wie ich heute mit KI arbeite, hat wenig mit dem zu tun, was diese Studien gemessen haben. Kein Beweis. Aber ein Grund, die Ergebnisse nicht als endgültiges Urteil zu lesen.

Das Drei-Ebenen-Modell: Eine pragmatische KI-Strategie für den Mittelstand

Die Antwort liegt in einer klaren Architektur, die drei Ebenen konsequent trennt. Bewusst so gebaut, dass sie (fast) ohne Gremienentscheidung, ohne große Budgetfreigabe und ohne Change-Management-Programm startet. Erst im Kleinen lernen, was wirklich funktioniert. Dann entscheiden, wie weit man gehen will.

Wichtig vorab: Dieses Modell richtet sich nicht an alle Mitarbeitenden gleichzeitig. Es richtet sich an ausgewählte Führungskräfte, Fachbereichsverantwortliche und interessierte Mitarbeitende, die Lust haben sich damit zu beschäftigen, die passenden Aufgaben mitbringen und bei denen die Anforderungen an Datenschutz und Compliance vertretbar sind. Dieses Modell beschreibt außerdem nur einen möglichen Einstieg. Wie es in einer Organisation mit 100+ Mitarbeitenden skaliert, ist ein eigenes Thema.

Diagramm mit Zahnradsymbol für "MACHER", Schloss für "TRESOR", Sprechblase für "DENKER". Verbindung zwischen Symbolen und Text: "Sie entscheiden, was wohin geht."


Layer 1: Microsoft 365 und Copilot als sicheres Fundament

Microsoft 365 ist in den meisten Mittelstandsunternehmen bereits lizenziert. Diese Ebene enthält die wirklich sensiblen Daten: Verträge, Rechnungen, Kundendaten, Personaldaten, interne Kommunikation. Alles was schützenswert ist, bleibt im Zweifelsfall hier und nur hier. Voraussetzung für jeden KI-Einsatz auf dieser Ebene: eine grundlegende Ordnung in SharePoint und Teams. Wer sein digitales Fundament in Ordnung bringt, profitiert von jeder zukünftigen KI-Verbesserung automatisch.

Microsoft Copilot ist ein chirurgisches Werkzeug. Für bestimmte Aufgaben das beste am Markt. Für andere nicht. Es gibt eine kostenlose Version und die Bezahlversion (M365 Copilot, ab 30 Euro pro Person und Monat). Beide bieten sogenannte Commercial Data Protection: Ihre Eingaben werden nicht zum Trainieren von KI-Modellen verwendet. Das wissen viele Führungskräfte nicht.

Wo Copilot brilliert: Bei allem, was Ihre internen Daten betrifft. Copilot kann in Ihrem Videomeeting mitschreiben und hinterher eine Zusammenfassung liefern. Kein anderes KI-Werkzeug kann das, weil kein anderes (hoffentlich!) in Ihrem Meeting sitzt. Copilot kann Ihre E-Mails, Chat-Nachrichten und Dokumente gleichzeitig durchsuchen und Zusammenhänge finden, für die Sie sonst Stunden bräuchten. Als persönlicher Lernassistent für Excel, Power BI oder SharePoint ist er für Neulinge ein genialer Einstieg.

Wo Copilot schwächelt: Bei der reinen Denkleistung. In meinen Tests hat ein Copilot-Assistent eine öffentliche Quelle zitiert und dabei Informationen geliefert, die dieser Quelle direkt widersprachen. Dieselbe Frage in einem anderen KI-Werkzeug? Sofort korrekt. Die britische Regierung hat Copilot mit 20.000 Beschäftigten getestet: Meeting-Zusammenfassungen wurden von 71 % genutzt, aber Excel und PowerPoint blieben unter 24 % (Hinweis: Studie wurde 2024 durchgeführt, Microsoft 365 Copilot Experiment: Cross-Government Findings Report (HTML) - GOV.UK). Gartner berichtet, dass nur 5 % der Organisationen nach dem Pilotprojekt ein breiteres Copilot-Angebot gestartet haben.

Mein Fazit nach über zwei Jahren testen: Copilot gewinnt, wenn es um Ihre Daten geht. Copilot verliert, wenn es um Intelligenz geht. Stand meiner letzten ausführlichen Tests war Ende 2025. Microsoft verbessert Copilot in hohem Tempo, prüfen Sie regelmäßig neu.

M365 Copilot-Chatfenster zeigt Anweisungen zur Excel-Datenautomatisierung. Schwarzer Hintergrund, weißer Text, farbige Symbole links.
Copilot kann in alltäglichen Fragen zu Outlook, Excel, SharePoint usw. helfen.

Meine Empfehlung: Nutzen Sie die kostenlose Version sofort. Führen Sie wenige Bezahllizenzen für interessierte Mitarbeitende ein. Binden Sie Ihre Datenschutzverantwortlichen und ggf. Rechtsberatung vorher ein. Das ist je nach Branche unterschiedlich zu bewerten. Aber wenn selbst in stark regulierten Branchen wie Finanzdienstleistung und Gesundheitswesen Unternehmen Copilot produktiv einsetzen (wenn auch bisher überwiegend Großunternehmen), ist zumindest die Frage berechtigt: Welche konkreten Gründe sprechen in unserem Fall dagegen? Manchmal gibt es gute Antworten. Manchmal stellt sich heraus, dass die Bedenken auf Annahmen beruhen, die niemand geprüft hat.

Microsoft investiert massiv weiter: Mit Copilot Cowork (in Zusammenarbeit mit Anthropic) hat Microsoft gerade die nächste Stufe angekündigt: KI-Assistenten, die mehrstufige Aufgaben innerhalb Ihres gesicherten Systems eigenständig erledigen. Aktuell noch in der Testphase, kein Datum für den DACH-Raum, und das Preismodell (99 USD pro Person und Monat) ist für den Mittelstand eine offene Frage. Aber die Richtung ist klar: Wer sein M365-Fundament jetzt in Ordnung bringt, ist für jede kommende Verbesserung vorbereitet.

Beachten Sie: Das sind bei weitem nicht alle KI-Features von Microsoft. Dieser Beitrag beschränkt sich bewusst auf generative KI als Denk- und Arbeitswerkzeug.

Aufwand: Mittel (Lizenzkosten plus interne Klärung).

Nutzen: Mittel (bei Aufgaben mit internen Daten stark, bei strategischem Arbeiten begrenzt). Für strategisches Denken und Analyse brauchen Sie etwas anderes. Das ist Layer 2.


Layer 2: Der Intelligence Layer. Sofort startklar, kein IT-Wissen nötig

Dies ist die Ebene, mit der Führungskräfte und interessierte Mitarbeitende relativ zügig starten können. Nicht von heute auf morgen: Vorher sollten Sie mit Ihren Datenschutzverantwortlichen und ggf. Ihrer Rechtsberatung klären, welche Anwendungsfälle und Informationen erlaubt sind und welche nicht. Aber das ist keine monatelange Abstimmung, sondern eine überschaubare Grundsatzentscheidung in wenigen Tagen. Die wichtigste Regel dabei:

Personenbezogene Daten, Kundeninformationen und sensible Unternehmensdaten gehören nicht in diesen Layer. Dafür ist Layer 1 da.

Was hier stattfindet, ist Denk- und Konzeptarbeit mit allgemeinen, öffentlichen oder anonymisierten Informationen. KI-Dienste wie Claude, ChatGPT oder Gemini bieten die Möglichkeit, spezialisierte Arbeitsbereiche aufzubauen. Stellen Sie sich das wie digitale Aktenordner vor, die sich alles merken: einen für Strategie und Positionierung, einen für Vertrieb und Kundenrecherche, einen für Marketing und Content.

Was macht das besonders? Jeder Arbeitsbereich sammelt über die Zeit Wissen an. Er kennt den Kontext, den Sie ihm geben: allgemeine Marktinformationen, Ihre Positionierung, die Art wie Sie kommunizieren. Wie viel davon Sie dem System geben, entscheiden Sie. Manche arbeiten nur mit öffentlichen Brancheninformationen und groben Positionierungsideen. Das ist völlig ausreichend. Niemand zwingt Sie, Ihr gesamtes Strategiepapier hochzuladen. Aber selbst mit diesem begrenzten Kontext müssen Sie nicht jedes Mal bei null anfangen. Das System denkt mit, hinterfragt Annahmen und produziert: E-Mail-Entwürfe, Konzepte, Analysen, Rechercheergebnisse. Nicht als generischer Chatbot, sondern als Sparringspartner, der Ihren Arbeitskontext kennt. Wichtig: Alles, was hier entsteht, sind Entwürfe. Eine E-Mail wird in Outlook kopiert und dort mit echten Namen, Daten und Bezügen ergänzt. Personenbezogene Daten und Kundeninformationen haben in diesem Layer nichts verloren.

Drei Anwendungsfälle, die ich täglich produktiv nutze:

Markt- und Wettbewerbsrecherche: Aktuelle KI-Modelle können eigenständig dutzende Quellen durchsuchen, vergleichen, gewichten und eine strukturierte Analyse mit Quellenangaben liefern. Nicht eine Frage, eine Antwort, sondern ein mehrstufiger Rechercheprozess, der sonst Tage dauert. Wichtig: Wer schrittweise vorgeht (erst grob suchen, Ergebnisse prüfen, dann gezielt vertiefen), bekommt deutlich bessere Resultate.

Strategisches Sparring: Mein strategischer KI-Arbeitsbereich kennt meine Positionierung, meine Zielgruppe, meine laufenden Aktivitäten. Wenn ich eine Idee vorstelle, ist die erste Reaktion nicht „gute Idee, machen wir“. Sondern: Stimmt die Annahme? Löst das das richtige Problem? Was wird übersehen? Für jemanden, der gleichzeitig Stratege, Vertriebler und Umsetzer ist, macht das einen erheblichen Unterschied.

Content und Marketing: Alle meine Beiträge entstehen in enger Zusammenarbeit zwischen Mensch und KI. Ich brauche immer noch Stunden für Sparring, Recherche, Verifizierung und Anpassungen. Aber einen Großteil der konzeptionellen Arbeit nimmt die KI ab. Wenn Sie diesen Beitrag lesen, sehen und „fühlen“ Sie das Ergebnis aus diesem Layer.

Diese Arbeitsbereiche eignen sich auch für die Planung und Konzeption von Projekten aus Layer 1 und 3: SharePoint-Strukturen entwerfen, Excel-Automatisierungen planen, technische Anforderungen formulieren. Das funktioniert hier deutlich besser als im Copilot, weil Sie den Kontext präziser steuern und auf die jeweils leistungsfähigsten aktuellen Modelle zugreifen können. Wichtig dabei: Entweder arbeiten Sie nur mit unkritischen Informationen (eine generische Struktur ohne Firmenbezug), oder Sie anonymisieren konsequent (keine echten Firmennamen, Kundennamen, Kennzahlen). Oder Sie akzeptieren bewusst ein Restrisiko: Ihre Eingaben liegen je nach Anbieter vorübergehend auf dessen Servern (in der Regel 7 bis 30 Tage) und werden danach automatisch gelöscht. Bei einer anonymisierten Strukturplanung ist der potenzielle Schaden gering. Aber diese Abwägung muss Ihr Unternehmen treffen, nicht der KI-Anbieter und nicht dieser Blogbeitrag.


Zur Datensicherheit: Seriöse Anbieter schützen Ihre Daten. Bei Business-Abonnements werden Ihre Eingaben standardmäßig nicht zum Trainieren von KI-Modellen verwendet. Bei den gängigen Abonnements für Einzelpersonen und kleine Teams werden die Daten derzeit überwiegend auf amerikanischen Servern gespeichert. Für Unternehmen mit strengen Anforderungen gibt es EU-Optionen über Enterprise-Pläne oder spezielle Plattformen (z.B. über Google Cloud Frankfurt oder Azure Schweden).

Entscheidend ist: Personenbezogene und geschäftskritische Daten haben in diesem Layer nichts verloren. Blogbeiträge, Positionierungstexte, Marktrecherchen, Konzeptarbeit? Das ist in der Regel nicht sensibel. Was vorab im Team geklärt werden muss: Wo liegt für Ihr Unternehmen die Grenze zwischen öffentlicher Arbeitsinformation und echtem geistigen Eigentum? Das ist eine unternehmerische Entscheidung, keine technische.

Was viele übersehen: Ihre Mitarbeitenden nutzen solche Werkzeuge vermutlich längst. Laut Bitkom nutzen bereits 10 % der Beschäftigten KI ohne Wissen des Arbeitgebers (Beschäftigte nutzen vermehrt Schatten-KI | Presseinformation | Bitkom e. V.). Wer das strukturiert und bewusst freigibt, hat nicht mehr Risiko. Sondern mehr Kontrolle und vielleicht sogar weniger Risiken!

Für die Vorsichtigen: Viele dieser Fähigkeiten bietet auch der Microsoft Copilot, allerdings fast nur in der Bezahlversion. Meine Erfahrung: Copilot liefert Ergebnisse, auch richtige. Aber er lässt oft Nuancen und Zusammenhänge weg, die andere Modelle liefern. Das merkt man erst mit Erfahrung. Für interne Daten hat Copilot die Nase vorn. Bei der reinen Denkleistung nicht.

Keine Anbieter-Abhängigkeit: Ich nutze KI-Dienste seit dem Release von ChatGPT 3.5. Seitdem bin ich zu Google Gemini und später zu Anthropic Claude gewechselt. Mitsamt allen Kontextdateien. Der Umzug hat jeweils maximal eine Stunde gedauert. Ihr aufgebautes Wissen besteht aus Textdateien, die Sie zu jedem Anbieter mitnehmen können. Das ist das Gegenteil von Abhängigkeit.

Ein netter Nebeneffekt: Ihre Mitarbeitenden lernen an den besten verfügbaren KI-Modellen. Sie sammeln Erfahrung, die in keiner Schulung vermittelt wird. Es kommt bei fast allen Systemen auf den Kontext an: das Hintergrundwissen, das Sie dem System in Form von Textdateien geben. Nicht zu viel (dann wird es unübersichtlich), nicht zu wenig (dann fehlt der Zusammenhang). Diese Kontextdateien können Sie bequem in jeden Layer und zu jedem Anbieter in wenigen Minuten umziehen.

Wichtige Einschränkung: Dieser Layer denkt mit und berät. Er setzt nichts um. Für die operative Umsetzung gibt es Layer 3.

Aufwand: Gering (interne Klärung, welche Aufgaben und Informationen erlaubt sind; 20 bis 100 Euro monatlich pro Person).

Nutzen: Sehr hoch für die identifizierten Anwendungsfälle.


Layer 3: Operative KI-Assistenten. Die Kür für Experimentierfreudige

Diese Ebene ist optional. Sie richtet sich an diejenigen, die nach einigen Wochen mit Layer 2 konkrete Aufgaben identifiziert haben, die sich automatisieren lassen.

Der entscheidende Unterschied zu Layer 2: Layer 2 ist ein Gesprächspartner. Egal wie gut, egal wie viel Kontext: Am Ende antwortet er nur, und Sie müssen alles selbst umsetzen. Layer 3 hat Hände. Stellen Sie sich ein kleines Team aus spezialisierten digitalen Assistenten vor. Einer ist für Recherche zuständig, einer für das Schreiben von Texten, einer für die technische Wartung. Ein Koordinator entscheidet, wer welche Aufgabe bekommt. Dazu kommen maßgeschneiderte Mini-Anwendungen: ein digitales Notizbuch für Leads, ein Redaktionsplan, eine Aufgabenverwaltung. Alles auf einem eigenen Rechner, isoliert von allen Unternehmenssystemen. Die direkte Kommunikation mit den "Agenten" erfolgt primär mit dem Smartphone via Microsoft Teams, Slack, Telegram, WhatsApp oder Discord.

Was technisch möglich ist (und warum Kontrolle entscheidend ist): Ein solches System kann auf Wunsch E-Mails verschicken und sortieren, automatisch beantworten, Dateien aufräumen, sogar Bestellungen auslösen. Klingt praktisch. Kann aber auch so enden: KI-Agenten sollten einzelne Projektordner löschen und haben stattdessen den gesamten Speicher eines Nutzers gelöscht. Alles weg. Ein Agent auf einer Entwicklerplattform sollte Code bereinigen und hat eine komplette Produktionsdatenbank gelöscht. Und Metas eigene KI-Sicherheitschefin verlor die Kontrolle über einen Agenten, der ihre E-Mails verwalten sollte. Das sind keine Horrorgeschichten aus einem Science-Fiction-Film. Das sind dokumentierte Vorfälle. Genau deshalb ist die wichtigste Frage nicht „Was kann die Technologie?" sondern „Was darf sie?" Das ist eine unternehmerische Entscheidung, keine technische. Mein Ansatz: bewusste Einschränkungen, keine sensiblen Daten, keine eigenständigen Aktionen mit echten Konsequenzen.

Ich betreibe seit fast einem Monat ein solches System unter dem Namen OpenClaw. Es besteht aus vier spezialisierten Assistenten: Einer recherchiert im Internet (der einzige mit Zugang nach außen). Einer schreibt Texte und pflegt mein Wissensarchiv. Einer kümmert sich um die technische Infrastruktur, Strategie und Planungen. Und ein Koordinator verteilt die Aufgaben.

Dazu habe ich fünf maßgeschneiderte Mini-Anwendungen gebaut: für Leadrecherche (nur öffentlich verfügbare Informationen über Unternehmen), für Redaktionsplanung und Beitrags-Auswertung (welcher Beitrag wurde wie oft gesehen, wie haben Lesende reagiert), für Aufgaben- und Zielsteuerung (Was steht diese Woche an? Wo weiche ich vom Plan ab?) und ein übergreifendes Dashboard, das alles zusammenführt.


Was OpenClaw für mich im Alltag tut: Es erinnert mich proaktiv bei Planabweichungen ("Du hast diese Woche noch keinen Beitrag veröffentlicht, obwohl drei geplant waren"). Es übernimmt administrative Arbeit wie Reporting und Auswertungen. Es setzt Aufgaben im Rahmen seiner Rechte sofort um. Es baut auf meine Anweisung hin neue Automatisierungen in seinem System. Und es "lernt" dazu, indem es sich wichtige Informationen aus unseren Gesprächen merkt.

Das Zusammenspiel der Ebenen in der Praxis: Den echten Durchbruch hatte ich, als ich Layer 2 und Layer 3 verbunden habe. Wichtig: Das ist keine automatische Pipeline, die im Hintergrund Daten hin- und herschiebt. Ich öffne bewusst eine gesicherte Verbindung von meinem Rechner zum System, übergebe eine Anweisung und beobachte die Umsetzung. Ich entscheide, was wann wohin geht. Ein Beispiel: Ich wollte die Reichweite meiner LinkedIn-Beiträge automatisiert messen. In Layer 2 habe ich die Idee entwickelt und eine Umsetzungsanweisung formulieren lassen. Diese Anweisung habe ich dann an Layer 3 übergeben. Die Lösung funktionierte beim ersten Versuch. In unter 30 Minuten hatte ich ein fertiges System. Erweiterungen danach? Jeweils mit einem Satz umgesetzt. Das läuft seit Wochen zuverlässig. Dieselbe Lösung über herkömmliche Werkzeuge wie Power Automate oder SharePoint? Tage bis Wochen, plus Abstimmungsschleifen. Layer 2 denkt, Layer 3 baut. Ich entscheide, was wann wohin geht. 👉 Datenbasierte Entscheidungen mit KI: Ein Praxisbeispiel

Ich bin dabei die Schnittstelle zwischen den Ebenen. Kein automatischer Datenaustausch, sondern Textexport und -import. Ich als Mensch entscheide, was wohin geht. Das klingt manuell? Ist es auch. Und genau das ist die Sicherheit.

Was das für Unternehmen bedeuten kann: Die Technologie existiert, sie ist bezahlbar, und sie wird in den nächsten Jahren zugänglicher. NVIDIA hat vor wenigen Tagen auf der GTC 2026 NemoClaw angekündigt: einen Enterprise-Sicherheitswrapper um OpenClaw mit Sandbox, Regeldurchsetzung und lokalem Datenschutz. Jensen Huang nennt OpenClaw "das Betriebssystem für persönliche KI". Was heute noch Experimentierfeld ist, wird gerade enterprise-fähig gemacht. Wer heute in Layer 2 lernt, welche Prozesse sich lohnen, kann morgen entscheiden, ob und wie Layer 3 sinnvoll ist. Ob als eigenes System, über Microsoft Copilot Studio, über NemoClaw, oder über Lösungen, die es in zwei Jahren geben wird.

Die ehrliche Einschätzung: Der Mehrwert ist für mich persönlich real. In abgegrenzten Anwendungsfällen. Aber ich habe auch massiv Zeit, Geld und Energie in den Aufbau gesteckt, etwa zwei intensive Wochen. Und ob das langfristig echten geschäftlichen Nutzen bringt? Das muss sich noch zeigen. Keine Unternehmensberatung der Welt kann Ihnen den Ertrag eines solchen Systems garantieren. Das hängt von Ihrer Branche, Ihrer Unternehmenskultur, Ihren technischen und rechtlichen Rahmenbedingungen ab. In einem Unternehmen mit der richtigen Beratung und neuen Werkzeugen könnte der Aufbau deutlich schneller gehen als bei mir. Aber versprechen kann das niemand.

Einschränkungen: Einrichtung und Betrieb erfordern aktuell technische Kenntnisse. Es ist ein System für eine Person, nicht für große Teams. Fehler passieren: Wenn der "Koordinator" eine Aufgabe falsch zuordnet, klingt die Antwort trotzdem überzeugend. Genau deshalb: keine sensiblen Daten, keine eigenständigen Aktionen mit echten Konsequenzen.

OpenClaw ist eine persönliche Workflow-Lösung, betrieben in isolierter Umgebung mit ausschließlich unkritischen und öffentlichen Daten. Kein Unternehmenstool, kein nachgewiesener Ertrag im Unternehmensmaßstab. Das Ziel ist die Erprobung, nicht die Demonstration einer fertigen Lösung.

Aufwand: Gering (interne Klärungen; Betriebskosten unter einem Euro am Tag).

Nutzen: Ungewiss, aber genau darum geht es: Experimentieren. Keine große Investition, sondern ein kontrollierter Versuch.

Was kostet dieses Modell wirklich?

⚡ Die technischen Kosten sind gering. Die größte Investition liegt in interner Klärung, nicht in Lizenzen.

Layer

Kosten

Aufwand

Nutzen

Layer 1:

M365 + Copilot

Bereits lizenziert. Copilot Free inklusive, Bezahlversion ab ~30 €/Monat pro Person

Mittel

Mittel

(bei internen Daten stark)

Layer 2: Intelligence

20–100 €/Monat pro Person

Gering

Sehr hoch

Layer 3:

KI-Assistenten

Ein vorhandener oder günstiger Rechner, Strom (~20 €/Jahr), Betriebskosten unter 1 €/Tag

Gering

(initial sehr technisch)

Ungewiss (Experiment)

Ein Hinweis zu den Kosten von Layer 3: Ich lagere die gesamte anspruchsvolle Denkarbeit (Konzepte, Strategien, Recherchen) in Layer 2 aus, wo ich ein Flatrate-Abonnement für 90 Euro monatlich nutze. Layer 3 führt dann nur aus. Dadurch bleiben die laufenden Kosten dort im Cent-Bereich. Wer Layer 3 ohne diesen Trick intensiver nutzt, zahlt entsprechend mehr. Aber selbst in der Summe: Für Unternehmensverhältnisse ist das alles Grundrauschen.

Die echten Aufwände entstehen woanders. Wer hat intern Zeit und Lust sich darauf einzulassen? Welche Daten dürfen in welche Ebene? Wer darf was nutzen? Wie werden KI-generierte Ergebnisse vor Verwendung geprüft? Diese Fragen sind keine technischen Probleme. Sie sind Organisationsarbeit. Und diese Arbeit ist ohnehin nötig.

Wie sieht der sinnvolle Einstieg aus?

⚡ Mit Layer 2 anfangen, lernen was funktioniert, dann entscheiden wie weit man gehen will.

Der pragmatische Weg: Zwei, drei Personen im Unternehmen starten mit einem KI-Dienst ihrer Wahl. Sie bauen einen ersten Arbeitsbereich auf und testen konkrete Aufgaben. Parallel läuft die Klärung: Was ist für unser Unternehmen sensibel, was ist öffentliche Arbeitsinformation? Und nein: Dafür brauchen Sie keine externe Beratung. Konto erstellen, Frage stellen, ausprobieren. Die eigentliche Investition ist nicht Geld, sondern Zeit, Neugier und die Bereitschaft, sich darauf einzulassen. Das lässt sich nicht einkaufen.

Wenn sich nach einigen Wochen positive Erfahrungen zeigen, lohnt es sich, die Nutzung auf weitere ausgewählte Personen auszuweiten und gleichzeitig Layer 1 vorzubereiten: Saubere SharePoint-Strukturen, geordnete Zugriffsrechte, eine Dokumentenarchitektur, die Copilot nutzen kann. Und hier schließt sich der Kreis: Genau für diese Konzeptionsarbeit können Sie Layer 2 als Sparringspartner nutzen. SharePoint-Strukturen entwerfen, Berechtigungskonzepte durchdenken, Anforderungen formulieren. Die Ebenen arbeiten zusammen, auch wenn sie technisch getrennt bleiben. Dieser Schritt ist auch ohne KI-Ambitionen sinnvoll. Er macht das gesamte Unternehmen effizienter. Siehe hier: SharePoint Struktur im Mittelstand: Warum Ihr altes Dateiserver-Denken das Chaos programmiert

Wer heute mit Layer 2 anfängt, lernt in Wochen mehr über die realen Möglichkeiten und Grenzen von KI im eigenen Unternehmen als aus einem Strategiepapier, das drei Monate später in der Schublade liegt. Das ist der eigentliche Wert dieses Modells. Nicht die Technologie, sondern das Lernen. Welche Aufgaben lohnen sich wirklich? Wo sind die echten Reibungspunkte? Diese Fragen beantwortet keine Unternehmensberatung und kein Zertifikat. Die beantwortet nur der eigene Betrieb.

Fazit

Es gibt gerade viele Stimmen, die KI-Transformation als schnelle, flächendeckende Bewegung beschreiben: Agentic AI First and Fast. Das klingt überzeugend, solange man die Realität komplexer Organisationen ausblendet: ungeklärte Zuständigkeiten, fehlende Anreize, Gremien die prüfen, Budgets die blockiert werden.

Mein Ansatz ist das Gegenteil davon. AI First and Small. Im Kleinen anfangen. Ohne Transformationsversprechen, ohne große Budgets, ohne externe Abhängigkeit. Lernen, was im eigenen Kontext funktioniert. Dann, wenn der Mehrwert nachgewiesen ist, entscheiden, wie weit man gehen will.

KI-Strategie im Mittelstand bedeutet nicht, ein teures Transformationsprogramm zu starten. Es bedeutet, mit dem anzufangen, was heute verfügbar ist. Mit den Menschen, die Lust haben. Und mit realistischen Erwartungen: Der Nutzen ist real, aber er ist kleiner als die Überschriften versprechen. Ausprobieren statt schätzen. Layer 2 ist heute startklar. Layer 1 ist meist schon vorhanden und braucht Ordnung. Layer 3 kommt, wenn man weiß, dass es sich lohnt.

Eine letzte Einordnung: Echte Erfahrung mit Multi-Agenten-Systemen haben aktuell die allerwenigsten Menschen und Unternehmen. Was funktioniert, hängt stark von der Branche, der Unternehmenskultur und den Menschen ab. Dieser Beitrag ist ein Vorschlag, wie man pragmatisch, schnell und günstig an die Sache herangehen kann. Kein Patentrezept. Und auch das gehört zur Ehrlichkeit: Dieser Beitrag kann nächste Woche schon wieder überholt sein. Die Technologie bewegt sich so schnell, dass jede Einschätzung ein Verfallsdatum hat. Umso wichtiger, selbst Erfahrung aufzubauen, statt auf endgültige Antworten zu warten.

Die "Paralyse durch Analyse" ist vielleicht (!) die teuerste KI-Strategie, die ein Unternehmen wählen kann.

Wenn Sie wissen möchten, wie Ihr Microsoft 365 als Fundament für dieses Modell aufgestellt ist und welche konkreten nächsten Schritte für Ihr Unternehmen sinnvoll sind, sprechen Sie mich gern an.


Marcus Machon berät Mittelständler bei Microsoft 365 Governance, Prozessautomatisierung und KI-Readiness.

bottom of page