Die 7 häufigsten Anfänger-Fehler beim Prompt-Engineering — und wie du sie vermeidest
ChatGPT antwortet Müll? Claude versteht dich falsch? Hier die sieben Fehler die ich in Hunderten Anfänger-Gesprächen immer wieder sehe — mit konkreten Vorher/Nachher-Beispielen die sofort funktionieren.
Quelle: Anthropic Prompt Engineering Guide + OpenAI Best Practices
Worum es hier geht
Du hast ChatGPT, Claude oder Gemini ausprobiert, und die Antworten sind irgendwie... mittelmäßig. Manchmal richtig gut, manchmal komplett daneben. Du fragst dich: "Liegt das am LLM oder an mir?"
Spoiler: Meistens liegt es am Prompt.
Ich habe in den letzten Monaten Hunderte Anfänger-Prompts in Community-Chats gesehen. Immer wieder dieselben sieben Fehler. Die gute Nachricht: Alle sind einfach zu fixen, und die Verbesserung ist sofort spürbar.
Dieser Artikel ist die komprimierte Version von dem was ich jedesmal erkläre wenn jemand fragt: "Warum gibt mir ChatGPT so schlechte Antworten?"
Fehler 1: Zu vage Fragen stellen
Symptom: Du bekommst generische, oberflächliche Antworten.
Beispiel (schlecht):
Erkläre mir Prompt Engineering.
Was passiert: Das LLM weiß nicht:
- Wie viel Vorwissen du hast
- Wie tief die Erklärung sein soll
- Ob du Theorie oder Praxis willst
- Ob du ein Beispiel brauchst oder Konzepte
Also gibt es dir eine Wikipedia-artige Standard-Antwort.
Beispiel (besser):
Ich bin Anfänger und habe ChatGPT bisher nur für einfache Fragen genutzt.
Erkläre mir Prompt Engineering so, dass ich heute noch drei konkrete Verbesserungen
an meinen Prompts machen kann. Mit Vorher/Nachher-Beispielen.
Warum das funktioniert:
- Du definierst dein Level ("Anfänger")
- Du gibst ein Ziel ("drei konkrete Verbesserungen")
- Du sagst welches Format du willst ("Vorher/Nachher-Beispiele")
Das LLM weiß jetzt genau was du brauchst.
Faustregel: Ein guter Prompt beantwortet: Wer bin ich? Was will ich? Welches Format brauche ich?
Fehler 2: Kontext weglassen
Symptom: Das LLM antwortet am Thema vorbei oder zu allgemein.
Beispiel (schlecht):
Schreib mir eine E-Mail an meinen Chef.
Was passiert: Das LLM erfindet einen generischen Business-Kontext und liefert eine 08/15-E-Mail die nach nichts klingt.
Beispiel (besser):
Schreib mir eine E-Mail an meinen Chef (duzen wir uns, lockerer Startup-Stil).
Ich war gestern krank und konnte nicht zum Team-Meeting. Ich brauche die Notizen
vom Meeting und will fragen ob ich morgen remote arbeiten kann weil ich noch
nicht ganz fit bin. Tonfall: professionell aber nicht steif.
Warum das funktioniert:
- Beziehung definiert ("duzen, Startup")
- Situation erklärt ("krank, Meeting verpasst")
- Ziele benannt ("Notizen + Remote-Anfrage")
- Tonfall vorgegeben
Faustregel: Wenn du willst dass das LLM etwas Spezifisches schreibt, gib ihm die Welt in der das stattfindet.
Fehler 3: Mehrere Fragen in einem Prompt
Symptom: Das LLM beantwortet nur die erste oder die letzte Frage, der Rest geht unter.
Beispiel (schlecht):
Was ist der Unterschied zwischen GPT-4 und Claude? Welches ist besser für Code?
Und wie viel kosten die APIs? Kann ich die auch lokal laufen lassen?
Was passiert: Das LLM versucht alles auf einmal zu beantworten, wird oberflächlich, oder fokussiert sich auf eine Frage und ignoriert die anderen.
Beispiel (besser — Variante A: Splitten):
Was ist der Unterschied zwischen GPT-4 und Claude? Fokussiere dich auf
Stärken/Schwächen bei Code-Generierung.
Dann nach der Antwort:
Danke. Jetzt: Was kosten die APIs von beiden im Vergleich?
Beispiel (besser — Variante B: Strukturieren):
Beantworte diese vier Fragen einzeln, mit Überschriften:
1. Was ist der Hauptunterschied zwischen GPT-4 und Claude?
2. Welches ist besser für Code-Generierung?
3. Was kosten die APIs (pro Million Tokens)?
4. Kann ich die Modelle lokal laufen lassen?
Warum das funktioniert: Bei Variante A: Eine Frage, eine klare Antwort, dann weiter. Bei Variante B: Struktur zwingt das LLM jede Frage einzeln zu behandeln.
Faustregel: Eine Frage pro Prompt, oder klare Nummerierung wenn mehrere Fragen nötig sind.
Fehler 4: Keine Beispiele geben für das gewünschte Format
Symptom: Das LLM liefert ein Format das du nicht gebrauchen kannst.
Beispiel (schlecht):
Gib mir eine Liste mit 10 Content-Ideen für meinen Tech-Blog.
Was passiert: Du bekommst zehn generische Überschriften wie "10 Tipps für bessere Produktivität" oder "Die Zukunft der KI" — ohne Details, ohne Struktur.
Beispiel (besser):
Gib mir 10 Content-Ideen für meinen Tech-Blog über KI-Tools für Entwickler.
Format für jede Idee:
- Titel (kurz, mit Hook)
- Zielgruppe (z. B. "Anfänger", "Python-Entwickler")
- Hauptfrage die der Artikel beantwortet
Beispiel:
Titel: "Warum dein Code-Review mit Claude schneller geht als mit GPT-4"
Zielgruppe: Python-Entwickler mit Code-Review-Erfahrung
Hauptfrage: Welche Prompts liefern bei Claude bessere Code-Reviews als bei GPT-4?
Warum das funktioniert: Du gibst ein Beispiel. Das LLM versteht genau welches Format du brauchst und repliziert es.
Faustregel: Wenn du ein bestimmtes Format willst, gib ein Beispiel mit.
Fehler 5: Nicht iterieren — den ersten Output akzeptieren
Symptom: Du bekommst eine mittelmäßige Antwort, denkst "naja, ist halt so", und gehst weiter.
Szenario: Du fragst ChatGPT: "Schreib mir eine Kurzbeschreibung für mein LinkedIn-Profil." Die Antwort ist okay, aber irgendwie generisch.
Was die meisten Anfänger machen: Sie kopieren es und nutzen es. Fertig.
Was du stattdessen tun solltest:
Das ist ein guter Start, aber zu förmlich. Mach es lockerer und persönlicher.
Füge hinzu dass ich nebenbei an Open-Source-Projekten arbeite.
Oder:
Gut, aber der erste Satz ist zu langweilig. Schreib mir fünf alternative erste Sätze
die direkter ins Thema gehen.
Warum das funktioniert: LLMs sind interaktive Werkzeuge. Du kannst Schritt für Schritt verfeinern. Der erste Output ist fast nie perfekt — aber mit zwei, drei Nachfragen kommst du zum Ergebnis.
Faustregel: Der erste Prompt liefert einen Draft. Der zweite und dritte verfeinern ihn.
Fehler 6: Dem LLM nicht sagen was es NICHT tun soll
Symptom: Das LLM macht Dinge die du nicht willst, weil du nur gesagt hast was es tun soll.
Beispiel (schlecht):
Schreib mir einen Blogartikel über KI-Tools für Texter.
Was passiert: Das LLM schreibt einen 3000-Wörter-Artikel mit Buzzwords wie "revolutionär", "game-changer", "die Zukunft der Arbeit" — also Marketing-Sprache die du nicht wolltest.
Beispiel (besser):
Schreib mir einen Blogartikel über KI-Tools für Texter.
Format: 800-1000 Wörter, locker, persönlich, keine Marketing-Sprache.
Vermeide: "revolutionär", "game-changer", "Zukunft der Arbeit".
Fokus: konkrete Tools mit echten Use-Cases, ehrlich auch über Schwächen.
Warum das funktioniert: Du definierst nicht nur was du willst, sondern auch was du NICHT willst. Das LLM hat jetzt klare Leitplanken.
Faustregel: Wenn du einen bestimmten Stil vermeiden willst, sag es explizit.
Fehler 7: Keine Rolle zuweisen
Symptom: Das LLM antwortet generisch, ohne spezifische Perspektive.
Beispiel (schlecht):
Wie optimiere ich meine Landing Page?
Was passiert: Das LLM gibt dir eine generische Liste: "Verbessere Headlines, nutze Social Proof, optimiere Ladezeit" — nichts Spezifisches.
Beispiel (besser):
Du bist ein Conversion-Optimierungs-Experte mit 10 Jahren Erfahrung in SaaS-Landing-Pages.
Ich zeige dir meine Landing Page (Link unten). Analysiere sie und gib mir die drei
wichtigsten Quick-Wins für höhere Conversion.
Fokus: Above-the-fold, Headline, CTA.
Zielgruppe: B2B-Entwickler.
Warum das funktioniert:
- Rolle zugewiesen ("Conversion-Experte, 10 Jahre SaaS")
- Kontext gegeben ("B2B-Entwickler")
- Fokus gesetzt ("Above-the-fold, Headline, CTA")
- Limit gesetzt ("drei Quick-Wins")
Das LLM antwortet jetzt aus einer spezifischen Perspektive, nicht generisch.
Faustregel: Wenn du Expertise brauchst, weise eine Rolle zu.
Bonus: Die 30-Sekunden-Checkliste vor jedem Prompt
Bevor du auf Enter drückst, frag dich:
[ ] Habe ich gesagt wer ich bin / welches Level ich habe?
[ ] Habe ich den Kontext erklärt?
[ ] Stelle ich nur EINE klare Frage (oder habe ich mehrere nummeriert)?
[ ] Habe ich ein Beispiel gegeben für das gewünschte Format?
[ ] Habe ich gesagt was ich NICHT will?
[ ] Wenn nötig: Habe ich eine Rolle zugewiesen?
Wenn drei oder mehr dieser Punkte "Nein" sind — überarbeite deinen Prompt.
Vorher/Nachher — ein komplettes Beispiel
Vorher (typischer Anfänger-Prompt):
Hilf mir mit meinem Code.
Problem:
- Kein Kontext (welche Sprache? welches Problem?)
- Keine Rolle
- Kein Ziel
- Kein Code
Nachher (verbesserter Prompt):
Ich bin Python-Anfänger und lerne gerade FastAPI.
Ich habe einen Endpoint geschrieben der eine Liste von Users zurückgeben soll,
aber ich bekomme einen 500-Error.
Hier der Code:
[CODE EINFÜGEN]
Hier der Error:
[ERROR EINFÜGEN]
Kannst du:
1. Den Fehler identifizieren
2. Erklären warum er passiert
3. Mir den korrigierten Code zeigen
4. Mir sagen wie ich solche Fehler in Zukunft selbst debugge
Warum das funktioniert:
- Level angegeben ("Python-Anfänger, lerne FastAPI")
- Kontext gegeben ("Endpoint, 500-Error")
- Code + Error mitgeliefert
- Vier klare, nummerierte Fragen
- Lernziel benannt ("wie debugge ich das selbst")
Das LLM kann jetzt präzise helfen.
Was du jetzt damit anfangen kannst
Nimm deinen letzten Prompt der nicht gut funktioniert hat. Geh die sieben Fehler durch:
- War er zu vage? → Füge Kontext + Ziel hinzu
- Fehlte Kontext? → Erkläre die Situation
- Mehrere Fragen auf einmal? → Splitte oder nummeriere
- Kein Format-Beispiel? → Gib eins
- Nicht iteriert? → Frag nochmal nach, verfeinere
- Nicht gesagt was du NICHT willst? → Füge Leitplanken hinzu
- Keine Rolle zugewiesen? → Definiere eine Perspektive
Probier es nochmal mit dem verbesserten Prompt. Die Antwort wird deutlich besser sein.
Wie wir diesen Artikel geprüft haben
- Tests durchgeführt am: 2026-04-19
- Hardware: Browser, kein Spezial-Setup
- Software-Versionen: Claude Opus 4.7, GPT-5, Gemini 2.5 Pro
- KI-Unterstützung: Alle Vorher/Nachher-Beispiele wurden in drei LLMs getestet und lieferten bei den "Nachher"-Prompts deutlich bessere Ergebnisse
- Sponsor/Affiliate: keines
Wenn du konkrete Prompts optimieren willst — komm in den Discord, Zone "KI-Einstieg & Basics". Da kannst du deine Prompts posten und bekommst Feedback von Leuten die genau diese Fehler schon selbst gemacht haben.
Wie wir diesen Artikel geprüft haben
- Tests am
- 2026-04-19, getestet mit Claude Opus 4.7, GPT-5, Gemini 2.5 Pro
- Hardware
- Browser, kein Spezial-Setup
- Software
- Claude Opus 4.7, GPT-5, Gemini 2.5 Pro
- KI-Einsatz
- Alle Vorher/Nachher-Beispiele wurden in drei LLMs getestet. Fehler basieren auf realen Anfänger-Prompts aus Community-Beratungen (anonymisiert).