top of page

Datenbasierte Entscheidungen mit KI: Ein Praxisbeispiel

  • Autorenbild: Marcus Machon
    Marcus Machon
  • 11. März
  • 6 Min. Lesezeit

28.000 Menschen sahen meine LinkedIn-Posts in einer einzigen Woche. Die Follower-Zahl stieg um drei. Kommentare: eine Handvoll. Irgendetwas stimmte nicht – aber die LinkedIn-Zahlen allein sagten mir nicht, was.

Was folgte, war eine Analyse-Session mit zwei verschiedenen KI-Tools, die mir in drei Stunden mehr über meine eigene Strategie beigebracht hat als sechs Monate Bauchgefühl. Dieser Beitrag beschreibt, was dabei herauskam – und warum das Muster dahinter für jedes Unternehmen relevant ist, das KI sinnvoll einsetzen will.

Eine Hand hält eine Lupe über ein technisches Diagramm mit Linien und Texten wie "Material Brass". Neutrale Farben, technischer Stil.

Was verraten 28.000 Impressions, auf die niemand reagiert?

In den meisten Fällen verraten hohe Impressions bei niedriger Interaktion, dass der Inhalt an den falschen Personen vorbeiläuft. Das Problem liegt dann nicht am Content, sondern an der Zielgruppe, die ihn sieht.

Mein LinkedIn-Profil hat rund 3.600 Follower, aufgebaut seit 2019. Seit Januar 2026 schreibe ich ausschließlich auf Deutsch, weil meine Zielgruppe im DACH-Raum sitzt – Geschäftsführende und Fachbereichsleitende im Mittelstand. Die Impressions stiegen auf Rekordhöhen. Aber die Engagement Rate einzelner Posts fiel auf 0,12% – bei über 20.000 Impressions.

Die Vermutung lag nahe: Vielleicht bläht LinkedIn die Impressions künstlich auf. Oder die Leute schauen länger, ohne zu klicken. Aber Vermutungen sind keine Strategie. Ich brauchte Daten.

Das Problem: Kein einzelnes Tool konnte mir die Antwort liefern. LinkedIn Analytics zeigt Impressions und Follower-Demografie, aber keine Post-Level-Details wie Saves oder Kommentator-Profile. Spezialisierte Analytics-Tools liefern diese Daten, kennen aber meine Positionierung und Zielgruppe nicht. Erst die Kombination beider Perspektiven machte die Ursache sichtbar.

Wie entstehen datenbasierte Entscheidungen mit KI in der Praxis?

Nicht durch ein einzelnes Tool, das auf Knopfdruck Antworten liefert – sondern durch einen iterativen Prozess, in dem ein Mensch verschiedene spezialisierte KI-Tools orchestriert und die richtigen Fragen stellt.

Für meine Analyse nutzte ich zwei Tools mit völlig unterschiedlichen Stärken:

Das erste Tool (ein KI-Assistent) hatte den vollständigen strategischen Kontext: Meine Positionierung, meine Zielgruppe, meine bisherige Content-Strategie, meine Redaktionsregeln. Es konnte Hypothesen formulieren und Muster in Rohdaten erkennen – hatte aber keinen direkten Zugriff auf meine LinkedIn-Daten.

Das zweite Tool (ein spezialisiertes LinkedIn-Analytics-Tool mit KI-Agent) hatte Zugriff auf Post-Level-Daten, Audience-Demografien, Saves, Sends und Kommentator-Profile. Es konnte spezifische Datenabfragen beantworten – kannte aber weder meine Zielgruppe noch meine Strategie.

Meine Rolle: Ich habe die Ergebnisse zwischen beiden Tools hin- und hergetragen, falsche Annahmen korrigiert und vor allem die Fragen gestellt, die aus dem Kontext meiner Geschäftssituation entstanden.

Diagramm mit drei Feldern: KI-Tool A, Mensch, KI-Tool B. Zeigt Interaktionen und Feedback-Prozess. Enthält Texte zu Zielen und Entscheidungen.

Der Prozess war nicht geplant – er ist entstanden

Ich hatte keine Methode im Voraus definiert. Der Ablauf entwickelte sich organisch: Das erste Tool analysierte meine LinkedIn-Exporte, identifizierte Datenlücken und formulierte gezielte Abfragen für das Analytics-Tool. Ich gab diese Abfragen ein, brachte die Antworten zurück, und das erste Tool stellte daraufhin schärfere Folgefragen.

Insgesamt durchliefen wir acht Analyse-Runden – von Engager-Demografien über Format-Performance bis hin zu einer Hook-Analyse der besten und schlechtesten Posts. Die entscheidenden Erkenntnisse kamen nicht aus dem ersten Prompt, sondern aus der fünften oder sechsten Iteration.

Welche Erkenntnisse lieferte die Analyse?

Die zentrale Erkenntnis: Das Problem war kein Content-Problem, sondern ein Verteilungsproblem. Rund 97% meiner Follower gehören nicht zu meiner Zielgruppe. LinkedIn verteilt neue Posts breit an diese bestehende Audience – und die scrollt über deutschen Governance-Content, ohne zu reagieren.

Ghost Impressions: Reichweite, die nichts bedeutet

Der Begriff beschreibt ein Phänomen, das vermutlich viele Unternehmen betrifft, ohne es zu bemerken: Posts werden technisch gesehen (= Impressions), aber nicht wahrgenommen (= keine Interaktion). Ein konkretes Beispiel aus meinen Daten:

Ein Post über einen Copilot-Test erreichte 20.406 Impressions bei einer Engagement Rate von 0,12% – das sind 25 Reaktionen insgesamt. Ein anderer Post im selben Monat erreichte 7.520 Impressions, aber 122 Engagements und eine Rate von 1,62%. Der zweite Post hatte ein Viertel der Reichweite, aber fünfmal mehr Wirkung.

Hohe Impressions bei niedriger Engagement Rate sind kein Erfolg. Sie sind ein Verteilungsproblem.

97% der Follower sind nicht die Zielgruppe

Die Demografiedaten machten das Ausmaß sichtbar: 46% meiner Follower arbeiten in IT-Dienstleistungen und Unternehmensberatung – das sind Kolleginnen und Kollegen, keine potenziellen Kunden. 37% sind bei Unternehmen mit über 1.000 Mitarbeitenden beschäftigt, meine Zielgruppe sind Firmen mit 80–250 Personen. Nur rund 84 von 3.658 Followern (2,3%) passen tatsächlich ins Profil meiner Wunschkunden.

Das wusste kein einzelnes Tool. Das Analytics-Tool lieferte die Demografiedaten. Aber erst im Abgleich mit meiner Zielgruppendefinition (die im Kontext des anderen Tools lag) wurde das Ausmaß der Diskrepanz deutlich.

Balkendiagramm zeigt Publikum: Peers 46%, Großunternehmen 37%, Mittelstand 11%, Sonstige 6%. Beige Hintergrund, grafische Symbole.

Bridge-Content: 3× mehr Wirkung

Die Kategorieanalyse aller 32 deutschen Posts zeigte ein klares Muster: Posts, die mit einer KI-Erkenntnis aus meiner eigenen Arbeit starten und bei einer konkreten Implikation für Unternehmen landen, erzeugten dreimal mehr Engagement als reine Fachbeiträge.

Das Analytics-Tool konnte mir sagen, welche Posts gut performten. Aber die Erkenntnis, warum sie gut performten (nämlich weil sie zwei Welten verbinden), kam aus der strategischen Analyse des anderen Tools, das meine Positionierung kannte.

Stille Signale: Saves und Sends

Die überraschendste Erkenntnis lieferte eine Kennzahl, die LinkedIn nicht standardmäßig exportiert: Saves (gespeicherte Posts) und Sends (weitergeleitete Posts). Mein erfolgreichster Post hatte 37 Saves – Menschen, die den Inhalt für später aufheben oder intern weiterleiten. Das ist ein stilles Signal dafür, dass der Inhalt als relevant genug wahrgenommen wird, um ihn aufzubewahren.

Die Analyse zeigte zwei verschiedene Erfolgstypen: Posts, die Diskussionen auslösen (viele Kommentare und Saves), und Posts, die als Referenzmaterial gespeichert werden (viele Saves, wenig Kommentare). Beide sind wertvoll – aber auf unterschiedliche Weise. Ohne die Kombination beider Tools wäre diese Unterscheidung unsichtbar geblieben.

Keine einzelne KI hat diese Analyse allein liefern können. Die eine hatte den Kontext, die andere die Daten. Erst ein Mensch, der die richtigen Fragen stellte, machte daraus Erkenntnisse.

Was bedeutet das für datenbasierte Entscheidungen in Ihrem Unternehmen?

Das Muster hinter dieser Analyse ist kein LinkedIn-Thema. Es ist ein Grundprinzip für den Einsatz von KI-Tools in Unternehmen – und besonders relevant für den Mittelstand, der vor der Frage steht, wie KI konkret Mehrwert schaffen kann.

Datenbasierte Entscheidungen brauchen mehr als ein KI-Tool

Genau wie in meinem Beispiel hat Ihr Unternehmen vermutlich verschiedene Datenquellen: ein CRM-System, das Kundenkontakte kennt, aber nicht Ihre Strategie. Ein Controlling-Tool, das Zahlen liefert, aber keinen Kontext. Vielleicht Microsoft Copilot, das auf Ihre Microsoft-365-Daten zugreift – aber nicht weiß, welche Fragen Sie stellen sollten.

Die Erwartung, dass ein einzelnes KI-Tool (sei es Copilot, ChatGPT oder ein Branchentool) alle Antworten liefert, ist eine der häufigsten Enttäuschungen, die ich in Beratungsgesprächen höre. Die Realität ist: Verschiedene Tools haben verschiedene Stärken. Die Kunst liegt in der Orchestrierung.

Der Mensch bleibt der Engpass – im besten Sinne

In meiner Analyse wusste kein Tool, dass 97% meiner Follower nicht zur Zielgruppe gehören. Das wurde erst sichtbar, als ein Mensch Demografiedaten mit einer Zielgruppendefinition abglich. Ohne dieses Domänenwissen – wer ist mein Kunde? was zählt als Erfolg? – wären die besten Daten wertlos geblieben.

In Ihrem Unternehmen ist es dasselbe: Copilot kann Ihnen eine Zusammenfassung Ihrer Quartalszahlen erstellen (Hinweis: ich empfehle für wiederkehrende Analyse und Reportings immer Power BI oder die Standardauswertefunktionen von Excel! Niemals den Zahlenauswertungen von LLMs vertrauen, wenn dies kritisch sein sollte!). Aber ob diese Zahlen ein Problem signalisieren, hängt davon ab, ob jemand die richtige Frage stellt – und die richtige Frage kommt aus Erfahrung und Kontext, nicht aus einem Algorithmus.

Iteration schlägt Perfektion

Die entscheidenden Erkenntnisse meiner Analyse kamen nicht aus dem ersten Prompt. Sie kamen aus der fünften, sechsten, achten Runde – weil jede Antwort eine neue, schärfere Frage aufwarf. Das ist kein Fehler im Prozess. Das ist der Prozess.

Für Ihr Unternehmen heißt das: Wenn Sie KI-Tools einführen und nach dem ersten Versuch enttäuscht sind, haben Sie vermutlich nicht das falsche Tool gewählt. Sie haben zu früh aufgehört zu fragen.

Diagramm "Der iterative Weg zur Strategie" mit 8 nummerierten Schritten. Pfeile zeigen Fortschritt; Text: "Strategie". Beige-weißer Hintergrund.

Was diese Analyse gekostet hat

Die gesamte Session dauerte etwa drei Stunden. Die Tool-Kosten lagen bei rund 45 Euro pro Monat – 20 Euro für den KI-Assistenten, 25 Euro für das Analytics-Tool. Die eigentliche Investition war nicht Geld, sondern Zeit und Domänenwissen: Wissen über die eigene Zielgruppe, die eigene Positionierung und die richtigen Fragen.

Das Ergebnis war eine vollständig überarbeitete Content-Strategie mit datenbasierten Entscheidungen zu Content-Mix, Posting-Formaten, Erfolgskennzahlen und Hook-Strategien. Keine dieser Entscheidungen beruhte auf Bauchgefühl. Jede einzelne war durch konkrete Daten gestützt.

Und genau das ist der Punkt: Datenbasierte Entscheidungen mit KI sind kein Hexenwerk und kein Millionenprojekt. Sie brauchen die richtigen Tools, die richtigen Fragen – und einen Menschen, der beides verbindet.


Marcus Machon berät Mittelständler bei Microsoft 365 Governance, Prozessautomatisierung und KI-Readiness.


PS: Transparenz ist mir wichtig, deshalb ein Blick hinter die Kulissen: Ich habe meinen Schreibstil aus über 450 LinkedIn-Posts analysieren lassen – alle geschrieben vor dem Release von ChatGPT 3.5 (also garantiert ohne KI-Unterstützung). Dieses Sprachprofil mit allen Eigenheiten und Macken liegt jetzt als Referenz hinter jedem Blogbeitrag und jedem Post. Natürlich nutze ich LLMs und generative KI intensiv – für Ideenfindung, Recherche, Strukturierung, Formulierung und Bilder. Trotzdem stecken in jedem Beitrag viel Zeit, eigene Erfahrungen und persönliche Meinungen. Das wird nicht immer fehlerfrei sein. Aber mein Ansatz ist: Dinge ausprobieren, daraus lernen und sich ständig anpassen. Genau das, was ich meinen Kunden auch empfehle.

bottom of page