KI-Texte erkennen: Auf diese Merkmale müsst ihr achten

Automatisierte Texte finden sich dank KI-Chatbots nun überall im Netz und darüber hinaus. Diese stilistischen und technischen Merkmale helfen euch dabei, maschinell generierte Inhalte zu identifizieren.
Der britische YouTuber Evan Edinger formuliert es deutlich: Die Fähigkeit, KI-generierte Texte zu identifizieren, sollte 2025 zur Grundausstattung jedes Berufstätigen gehören. Für IT- und HR-Professionals wird diese Kompetenz besonders relevant, wenn sie Bewerbungen bewerten, die Authentizität von Dokumentationen prüfen oder Plagiate vermeiden müssen.
Die Verbreitung automatisierter Texte steigt kontinuierlich. Während 2023 noch 64 Prozent der Befragten KI zur Texterstellung einsetzten, stieg dieser Anteil 2024 auf 83 Prozent. Gleichzeitig zeigen aktuelle Studien die Grenzen menschlicher Erkennungsfähigkeit auf: Eine Pilotstudie der Ruhr-Universität Bochum ergab, dass lehrende Personen mit einer Genauigkeit von bis zu 70 Prozent KI-generierte von selbst verfassten Texten unterscheiden konnten.
Stilistische Merkmale automatisierter Texte
Generative Sprachmodelle entwickeln charakteristische Schreibmuster, die sich bei genauerer Betrachtung als Warnsignale entpuppen. Diese Red Flags treten selten isoliert auf, sondern häufig in Kombination:
Der übermäßige Einsatz des Gedankenstrichs (engl. M-Dash) gilt als besonders auffälliger Indikator. Große Sprachmodelle verwenden dieses Satzzeichen deutlich häufiger als Menschen, die oft nicht einmal wissen, wie sie es auf der Tastatur eingeben. Selbst explizite Anweisungen, den Gedankenstrich zu vermeiden, ignorieren die Modelle regelmäßig. Bei der Annahme eines KI-Textes allein aufgrund des Gedankenstriches ist jedoch Vorsicht geboten. Denn LLMs haben zu einem Comeback dessen geführt, wodurch auch wieder mehr Menschen diesen nutzen.
Parallele Satzstrukturen wie "Es ist nicht nur X, es ist auch Y" durchziehen KI-Texte systematisch. Diese Formulierungen verleihen dem Text einen rhythmischen Klang, wirken bei häufiger Nutzung jedoch mechanisch. Ebenso typisch sind Dreiergruppen oder auch Triplets ("Das Programm ist intuitiv, schnell und effizient"), die von Menschen gerne genutzt werden, da sie in der Schrift vollständig, aber nicht überwältigend wirken und leicht zu merken sind. Auch Gruppen von fünf Punkten sind häufig. Social-Media-Plattformen wie Linkedin bieten eine Fülle an KI-generierten Beiträgen, die beide Formulierungen vereinen, wie dieses Beispiel: „In packaging, subtle cues like height, lid size or curves aren’t just aesthetic. They shape expectations.“
Die Wortwahl verrät ebenfalls die maschinelle Herkunft. Große Sprachmodelle greifen auf ein "sicheres" Vokabular zurück: vage positive Adjektive wie "innovativ" oder "praktisch" sowie Verben wie "auf einen neuen Level heben" und "eintauchen", die im beruflichen Alltag selten vorkommen. Der resultierende Text wirkt glatt und steril, ohne erkennbare persönliche Haltung.
Viele automatisierte Antworten sind von übertriebenem Lob geprägt. Bei Rückfragen liefern Modelle mitunter übermäßig höfliche Einleitungen („Wunderbare Frage, Sie treffen den Kern der Sache“), die keinen inhaltlichen Mehrwert bieten. Dieses "corporate kind" oder auch Unternehmensfreundlichkeit will zwar nett sein, wirkt aber unaufrichtig und generisch.
Strukturelle Auffälligkeiten und Textfluss
KI-Texte zeichnen sich durch wenig originelle und abwechslungsarme Formulierungen aus. Identische Wendungen häufen sich, zentrale Aussagen werden mehrfach erklärt, und überflüssige Kontextualisierungen unterbrechen den Lesefluss. Der Text springt oft ohne logische Verbindung von Thema zu Thema. Laut Edinger kann das dazu führen, dass sich der Text wie ein Déjà-vu anfühlt.
Ungewöhnliche Vergleiche und Metaphern fallen ebenfalls auf. Sprachmodelle erzeugen bildhafte Formulierungen, die bemüht wirken: "wie ein Leuchtturm im dichten Nebel" oder "ein Pflaster aus Schmirgelpapier". Diese Analogien versuchen zu stark, Bedeutung zu transportieren, und scheitern an ihrer Unnatürlichkeit.
Während menschliche Autoren oft persönliche Anekdoten einbauen und relevante Verbindungen sowie interessante Abschweifungen (Tangenten) zu anderen Themen herstellen, entfernen KI-Texte systematisch die persönliche Note. KI-Texte folgen oft robotisch einem einzigen Thema. Das zeigt sich auch in der Formulierung: Aus "Ich ziehe meinen Hut vor dir" wird "Hut ab", wobei die erste Person zugunsten einer generischen Formulierung verschwindet.
Ein weiteres kleines Anzeichen findet sich in informellen Kontexten. Obwohl perfekte Grammatik online an sich kein großes Warnsignal ist, kann es verdächtig sein, wenn beispielsweise ein Freund in einer iMessage-Antwort plötzlich perfekte Kommas setzt.
Der "Vibe-Check", wie Edinger ihn betitelt, bleibt ein wichtiger Faktor. Wenn ein Text zwar korrekt, aber merkwürdig unpersönlich oder uniform erscheint, lohnt sich eine genauere Überprüfung. Generell neigen Sprachmodelle zur Bedeutungsleere. KI-Texte können viele Worte verwenden, die scheinbar etwas aussagen, aber letztendlich ohne wirkliche Bedeutung oder Inhalt sind.
Trainings zu Künstlicher Intelligenz:
Warum KI-Erkennung für IT-Teams relevant ist
Die automatisierte Texterstellung bringt verschiedene Risiken mit sich. In Bewerbungsprozessen können KI-generierte Motivationsschreiben oder Projektberichte ein verzerrtes Bild der Kandidaten vermitteln. Eine Studie kam zu dem Schluss, dass aktuelle KI-Systeme "mit relativ wenig Eingabeaufforderung Texte generieren kann, die für Lehrer nicht erkennbar sind".
Für die Suchmaschinenoptimierung spielt die Originalität ebenfalls eine Rolle. Google belohnt eigenständige Inhalte und wertet manipulative oder qualitativ minderwertige Texte ab. Automatisch generierte Texte können als Spam erkannt werden, was sich negativ auf das Ranking auswirkt.
Urheberrechtliche Aspekte kommen hinzu: KI-Texte können unbewusst vorhandene Passagen kopieren und rechtliche Risiken schaffen. Unternehmen riskieren durch unerkannte automatisierte Beiträge und potenzielle Plagiate das Vertrauen ihres Publikums.
Grenzen der automatischen Erkennung
Tools zur KI-Text-Erkennung sind aktuell für deutsche Texte noch nicht ideal geeignet, jedoch für englische KI-Texte noch recht zuverlässig. Neben stilistischen Mustern nutzen Detektionsstools statistische Verfahren. Sie messen die Perplexity (Vorhersagbarkeit der nächsten Wörter) und die Burstiness (Variation der Satzlängen). Texte mit geringer Perplexity sind typischerweise maschinell generiert, da Modelle sehr wahrscheinliche Wortfolgen produzieren. Niedrige Burstiness deutet darauf hin, dass Sätze ähnliche Längen haben.
Detectora verwendet neueste Techniken des Natural Language Processings für deutsche Texte und erkennt neben GPT-3.5 auch neuere Sprachmodelle. Die Kombination aus KI- und Plagiatserkennung kostet derzeit etwa 17 Dollar pro Monat.
Chatbot-Anbieter integrieren in ihre Outputs eigene Mechaniken, um KI-Generationen transparent zu machen. Unsichtbare Wasserzeichen wie Googles SynthID kennzeichnen Textpassagen kryptografisch, ohne für die Leserschaft sichtbar zu sein. Durch Paraphrasieren oder Übersetzen lassen sich diese Markierungen jedoch entfernen, weshalb sie hauptsächlich bei unveränderten Ausgaben funktionieren.
Trotz dieser Werkzeuge ist zu beachten, dass sich Sprachmodelle kontinuierlich verbessern, im Satzbau abwechslungsreicher werden und personalisierte Stile integrieren. Gleichzeitiges Umschreiben oder manuelles Editieren kann statistische Merkmale verwischen und Wasserzeichen zerstören.
Viele Detektoren erreichen Erkennungsraten von 60 bis 70 Prozent, wobei Fehlurteile unvermeidlich bleiben. Und auch Menschen können sich irren, wenn ein textlich versierter Autor eine individualisierte Sprache verwendet. Das bedeutet nicht, dass Prüfungen nutzlos sind, sie erfordern nur einen differenzierten Ansatz.
Wer generative Texte identifizieren muss, sollte verschiedene Erkennungstools ausprobieren, sich über aktuelle Entwicklungen informieren und einen kritischen Blick auf stilistische Muster, faktische Korrektheit und Textkohärenz entwickeln. Die momentan beste Detektionsmethode für KI-Texte bleibt die natürliche Intuition auf Grundlage der täglichen Nutzung von Chatbots. Gleiches gilt auch für KI-generierte Bilder, Videos und Audioinhalte.
Bild: KI-generiert mit Sora/Midjourney
Bleibt mit unserem kostenlosen Newsletter auf dem Laufenden und erhaltet
10 Prozent Rabatt auf eure erste Bestellung in der Golem Karrierewelt: