Warum KI-Romane oft gleich klingen — und wie man das verhindert
Bestimmte Phrasen verraten KI-Texte sofort. Wir zeigen 25+ typische Muster, erklären warum sie entstehen und wie SYMBANs POLISH-Pass sie systematisch eliminiert.
Warum KI-Romane oft gleich klingen — und wie man das verhindert
Wer regelmäßig KI-generierte Texte liest, kennt das Gefühl: Nach drei Absätzen weiß man, dass kein Mensch diese Zeilen geschrieben hat. Nicht wegen der Grammatik — die ist meist einwandfrei. Sondern wegen eines unverkennbaren Klangs, der sich durch KI-Prosa zieht wie ein monotoner Grundton.
Dieses Phänomen hat in der Branche einen Namen: AI Slop. Gemeint sind sprachliche Muster, die Large Language Models systematisch bevorzugen, weil sie in den Trainingsdaten statistisch überrepräsentiert sind. Das Ergebnis: Tausende KI-Romane, die sich lesen, als hätte ein und derselbe Autor sie verfasst — ein Autor mit einer Vorliebe für Pathos, Abstraktionen und melodramatische Gesten.
In diesem Artikel zeigen wir dir, welche Phrasen dich sofort verraten, warum Sprachmodelle dazu neigen, und wie du das Problem systematisch löst.
Die Anatomie des AI Slop: 25+ verräterische Muster
Körpersprache und Emotionen
KI-Modelle greifen bei der Darstellung von Emotionen immer wieder auf dieselben physischen Reaktionen zurück:
- "Ein Schauer lief ihr über den Rücken" — in gefühlt jedem zweiten Kapitel
- "Sein Herz hämmerte in seiner Brust" — wo soll es auch sonst hämmern?
- "Sie ballte die Fäuste" — die universelle Geste für jede negative Emotion
- "Er schluckte hart" — ob Angst, Trauer oder Überraschung, immer wird geschluckt
- "Ihre Augen weiteten sich" — der Standardausdruck für Erstaunen
- "Ein Knoten bildete sich in ihrem Magen" — anatomisch fragwürdig, stilistisch abgenutzt
- "Sein Kiefer spannte sich an" — der harte Mann zeigt Entschlossenheit
Beschreibungen und Atmosphäre
- "Die Luft war zum Schneiden dick" — in jedem Thriller-Kapitel
- "Stille senkte sich über den Raum" — als wäre Stille ein physisches Objekt
- "Das Mondlicht tauchte alles in silbriges Licht" — doppelt gemoppelt und klischiert
- "Ein bitterer Geschmack breitete sich in seinem Mund aus" — die synästhetische Standardmetapher
- "Die Schatten tanzten an den Wänden" — Schatten tanzen immer, sie können anscheinend nichts anderes
- "Die Zeit schien stillzustehen" — in dramatischen Momenten obligatorisch
Erzählstimme und Struktur
- "Wenig wusste er/sie, dass..." — der allwissende Erzähler blinzelt durch
- "Und dann veränderte sich alles" — der billigste Cliffhanger
- "Es war, als ob die Welt den Atem anhielt" — kosmischer Pathos für banale Momente
- "Etwas in ihm zerbrach" — das vage innere Etwas, das immer zerbricht
- "Er konnte nicht anders, als zu bemerken..." — unnötige doppelte Verneinung
- "Eine Stimme in ihrem Hinterkopf flüsterte..." — die innere Stimme als billige Exposition
Dialoge und Interaktion
- "'Wir müssen reden', sagte sie mit fester Stimme" — Tell statt Show
- "Er nickte langsam" — immer langsam, nie schnell
- "Ein Lächeln umspielte ihre Lippen" — was genau umspielt da?
- "'Das ist nicht das, wonach es aussieht'" — der universelle Dialog-Platzhalter
- "Sie tauschten einen vielsagenden Blick" — was sagt der Blick? Das erfahren wir nicht.
- "Seine Worte hingen in der Luft" — wo sie offenbar gerne hängen bleiben
- "'Ich...', begann sie, brach dann aber ab" — die KI-Standardpause
Warum passiert das? Die technische Erklärung
Das Problem liegt in der Art, wie Sprachmodelle funktionieren. Sie berechnen für jedes nächste Wort eine Wahrscheinlichkeitsverteilung basierend auf dem Kontext. Bestimmte Wendungen haben eine hohe Wahrscheinlichkeit, weil sie in den Trainingsdaten — Millionen von Büchern, Fanfiction, Blogposts — besonders häufig vorkommen.
| Faktor | Auswirkung |
|---|---|
| Trainingsdata-Bias | Häufige Phrasen werden statistisch bevorzugt |
| Temperatur-Einstellungen | Niedrige Werte verstärken den Effekt |
| Fehlende Stilrichtlinien | Ohne klare Vorgaben fällt das Modell in den Durchschnitt |
| Kontextfenster-Grenzen | Das Modell "vergisst", welche Phrasen es bereits verwendet hat |
| Fehlende Variation | Kein Bewusstsein für Wiederholung über Kapitel hinweg |
Das vierte Problem ist besonders kritisch bei Romanen: Innerhalb eines Kapitels kann ein Modell vielleicht noch Wiederholungen vermeiden. Aber über 30 oder 50 Kapitel hinweg fehlt das Gedächtnis dafür, dass "ein Schauer lief ihr über den Rücken" schon acht Mal vorkam.
Der POLISH-Pass: Systematische Slop-Elimination
Bei SYMBAN ist die Bekämpfung von AI Slop kein Nachgedanke, sondern ein eigener Produktionsschritt. Der POLISH-Pass läuft nach dem WRITE-Pass und hat eine klar definierte Aufgabe: den Text sprachlich auf menschliches Niveau heben.
Wie POLISH arbeitet
- Phrasen-Erkennung: Der Pass prüft gegen eine umfangreiche, sprachspezifische Wortliste bekannter AI-Slop-Muster — für Deutsch, Englisch und weitere Sprachen separat gepflegt
- Frequenzanalyse: Wiederholte Formulierungen werden auch dann erkannt, wenn sie nicht auf der Slop-Liste stehen — denn menschliche Autoren variieren ihre Sprache natürlich
- Kontextbewusste Ersetzung: Statt Phrasen einfach zu streichen, ersetzt POLISH sie durch Formulierungen, die zum Ton des Kapitels, zur Erzählperspektive und zum Genre passen
- Stilkonsistenz: Der Pass hat Zugriff auf vorherige Kapitel und kann so sicherstellen, dass der Ersatz nicht wiederum zur Wiederholung wird
Vorher / Nachher: Konkrete Beispiele
Beispiel 1 — Emotionale Szene:
Vorher: Ein Schauer lief ihr über den Rücken, als sie die Nachricht las. Ihr Herz hämmerte in ihrer Brust. Sie ballte die Fäuste und schluckte hart.
Nachher: Die drei Zeilen auf dem Display ließen sie auf halbem Schritt erstarren. Ihre Finger krampften sich um das Telefon, so fest, dass das Gehäuse knackte.
Der Unterschied: Statt dreier generischer Körperreaktionen eine spezifische, szenisch verankerte Reaktion, die gleichzeitig ein Detail über die Situation transportiert.
Beispiel 2 — Atmosphäre:
Vorher: Stille senkte sich über den Raum. Die Schatten tanzten an den Wänden, und die Luft war zum Schneiden dick.
Nachher: Niemand sprach. Hinter der Tür klapperte Geschirr — das einzige Geräusch, das die Anspannung am Tisch noch deutlicher machte.
Hier wird die Stille nicht behauptet, sondern durch ein konkretes Gegengeräusch erfahrbar gemacht. Das ist handwerklich um Klassen besser.
Beispiel 3 — Dialog:
Vorher: "Wir müssen reden", sagte sie mit fester Stimme. Ihre Worte hingen in der Luft.
Nachher: "Setz dich." Sie schob den Stuhl mit dem Fuß heraus. "Das dauert."
Statt dem Erzähler die Emotion zu überlassen, zeigt der Dialog durch Handlung und Subtext, was los ist.
Was du selbst tun kannst — auch ohne POLISH
Auch wenn du (noch) ohne automatisierten POLISH-Pass arbeitest, kannst du AI Slop reduzieren:
Checkliste für manuelle Slop-Prüfung
- Suche nach den Top-10-Phrasen aus unserer Liste oben — die meisten Textverarbeitungen haben eine Suchfunktion
- Zähle Körperreaktionen pro Kapitel — mehr als 3 identische sind ein Warnsignal
- Prüfe die ersten Sätze jedes Abschnitts — KI-Modelle haben dort die stärksten Muster
- Lies Dialoge laut vor — unnatürliche Wendungen fallen beim Sprechen sofort auf
- Achte auf Tell statt Show — wenn der Erzähler Emotionen benennt statt zu zeigen, ist das oft Slop
Prompt-Strategien zur Prävention
In deinem Konzept und deinen Stilrichtlinien kannst du gegensteuern:
- Definiere verbotene Phrasen explizit in deinen Stilanweisungen
- Gib konkrete Vorbilder — welche Autoren sollen als Referenz dienen?
- Fordere spezifische Sinneseindrücke statt generischer Beschreibungen
- Lege fest: Keine Körperreaktion darf sich innerhalb von 5 Kapiteln wiederholen
Bei SYMBAN kannst du solche Regeln direkt im Konzept hinterlegen — das 5-Schritt-System berücksichtigt sie dann in jedem einzelnen Durchlauf.
Warum das Problem mit der Länge wächst
Bei einem einzelnen Blogpost fällt AI Slop kaum auf. Bei einem 300-Seiten-Roman wird es zum Dealbreaker. Der Grund: Wiederholung ist kumulativ. Wenn "ein Schauer lief ihr über den Rücken" einmal vorkommt, ist es akzeptabel. Beim fünften Mal fällt es auf. Beim zehnten Mal legt der Leser das Buch weg.
Das ist auch der Grund, warum Tools, die Kapitel für Kapitel isoliert generieren, bei Romanen versagen — ihnen fehlt die Erinnerung an vorherige Kapitel. SYMBANs Gedächtnissystem stellt sicher, dass der POLISH-Pass nicht nur das aktuelle Kapitel kennt, sondern auch weiß, welche Formulierungen bereits im Buch verwendet wurden.
Fazit: AI Slop ist lösbar — wenn man es ernst nimmt
KI-generierte Texte müssen nicht generisch klingen. Das Problem ist nicht die Technologie selbst, sondern die fehlende Nachbearbeitung. Wer KI-Prosa als Erstfassung behandelt und systematisch überarbeitet — ob manuell oder automatisiert — kann Ergebnisse erzielen, die sich von menschlich geschriebenen Texten nicht unterscheiden.
Der Schlüssel liegt in drei Dingen:
- Bewusstsein: Wissen, welche Muster existieren
- Prävention: Klare Stilrichtlinien, die dem Modell helfen
- Korrektur: Ein systematischer Prozess, der Slop zuverlässig erkennt und ersetzt
SYMBANs POLISH-Pass automatisiert Punkt 2 und 3 — und dieser Artikel hilft dir bei Punkt 1. Denn der erste Schritt gegen AI Slop ist, ihn überhaupt zu erkennen.