Dein erstes Prompt — warum 'schreib mir einen Text' nicht reicht und wie du es besser machst
Die meisten scheitern bei KI nicht weil die Technologie schlecht ist, sondern weil sie "schreib mir einen Text" tippen und sich dann über schwache Ergebnisse wundern. Der Unterschied zwischen durchwachsenen und erstaunlichen Antworten liegt fast immer im Prompt. Hier lernst du das strukturelle Prinzip das bei jedem LLM funktioniert — ohne Geheimtipps, ohne Tricks, nur nachvollziehbare Praxis.
Quelle: OpenAI Prompt Engineering Guide + eigene Praxistests
Warum die meisten ersten Prompts schwach sind
Mittwoch, 16:42 Uhr. Ich sitze im Discord-Support und ein neues Mitglied postet seinen ersten Versuch mit ChatGPT. Der Prompt:
"schreib mir einen Text"
Die Antwort ist erwartbar generisch. Das Mitglied schreibt: "Ich dachte KI kann alles?"
Kann sie auch. Aber nur wenn du ihr sagst was "alles" eigentlich bedeuten soll.
Ein LLM ist keine Gedankenlesemaschine. Es ist ein statistisches Sprachmodell das versucht deine Anfrage basierend auf Milliarden von Textbeispielen zu vervollständigen. Wenn du schreibst "schreib mir einen Text", hat es null Kontext und liefert dir den durchschnittlichsten Text den es statistisch erzeugen kann.
Das ist nicht schlecht gemeint — es ist einfach die Funktionsweise. Und sobald du verstehst wie du dem LLM Kontext gibst, ändern sich deine Ergebnisse dramatisch.
Das Prinzip: Kontext → Aufgabe → Format → Beispiel
Gute Prompts folgen einem strukturellen Prinzip. Nicht weil irgendein Paper das sagt, sondern weil es schlicht funktioniert. Die vier Bausteine:
1. Kontext — Wer bist du, was ist die Situation
Das LLM weiß nichts über dich, dein Projekt, oder warum du diese Anfrage stellst. Sag es ihm.
2. Aufgabe — Was soll rauskommen
Sei spezifisch. Nicht "schreib einen Text", sondern "schreib eine E-Mail an meinen Chef die erklärt warum das Projekt zwei Wochen länger braucht".
3. Format — Wie soll es aussehen
Soll es ein Absatz sein? Drei Bullet-Points? Ein JSON-Objekt? Eine Tabelle? Sag es vorher.
4. Beispiel — Zeig was du meinst (optional aber stark)
Wenn du ein Beispiel für den gewünschten Output gibst, wird das LLM in 90% der Fälle genau diesen Stil matchen.
Das war es. Keine Geheimformel. Nur: sag dem LLM was du willst, wie du es willst, und warum. Je präziser, desto besser.
Vorher/Nachher: E-Mail an den Chef
Versuch 1 — der schwache Prompt
Schreib eine E-Mail an meinen Chef
Output:
Betreff: Besprechung
Sehr geehrter Herr Müller,
ich möchte mich gerne mit Ihnen zu einem Gespräch zusammensetzen um wichtige Punkte zu besprechen.
Mit freundlichen Grüßen
Das ist nicht falsch. Es ist nur komplett nutzlos. Welche Punkte? Warum? Wann?
Versuch 2 — strukturiertes Prompt
Kontext: Ich bin Softwareentwickler und arbeite an einem Refactoring-Projekt das ursprünglich 4 Wochen dauern sollte. Wir haben jetzt Woche 3 erreicht und merken dass noch zwei Drittel der Arbeit vor uns liegen. Mein Chef erwartet nächste Woche den Launch.
Aufgabe: Schreib eine E-Mail an meinen Chef (formell aber nicht steif) die erklärt warum wir zwei Wochen Verzögerung haben, ohne dass es wie eine Ausrede klingt.
Format: Betreff-Zeile + drei kurze Absätze + konkreter neuer Zeitplan.
Ton: Sachlich, lösungsorientiert, kein "leider" oder "bedauerlicherweise".
Output:
Betreff: Refactoring-Projekt — Anpassung Zeitplan auf Launch 15. Mai
Hallo Herr Schmidt,
das Refactoring läuft solide, aber während der Arbeit sind drei technische Abhängigkeiten aufgetaucht die wir vorher nicht auf dem Schirm hatten: die alte API-Schicht hat mehr Seiteneffekte als dokumentiert, zwei zentrale Module sind enger verzahnt als gedacht, und wir brauchen zusätzliche Tests um keine Regression zu riskieren.
Statt nächste Woche können wir realistisch am 15. Mai launchen — zwei Wochen später als geplant. Das gibt uns die Zeit die drei Punkte sauber zu lösen und den Launch stabil zu halten.
Passt das zeitlich noch in den Gesamtplan oder soll ich Prioritäten verschieben?
Viele Grüße
Das ist ein Text den du tatsächlich abschicken kannst. Klar, lösungsorientiert, kein Wischiwaschi. Der Unterschied liegt komplett im Prompt.
Vorher/Nachher: Code-Hilfe
Versuch 1 — zu unspezifisch
Schreib mir ein Python-Skript das eine CSV-Datei einliest
Output:
import csv
with open('data.csv', 'r') as file:
reader = csv.reader(file)
for row in reader:
print(row)
Das ist korrekt. Es liest eine CSV. Aber macht es das was du wirklich wolltest? Wahrscheinlich nicht.
Versuch 2 — mit Kontext und Format
Kontext: Ich habe eine CSV-Datei
users.csvmit drei Spalten: name, email, signup_date. Die Datei hat eine Header-Zeile.Aufgabe: Schreib ein Python-Skript das die Datei einliest, nur die User findet die sich im Jahr 2026 angemeldet haben, und deren Namen + E-Mails in eine neue Datei
users_2026.csvschreibt.Format: Kommentare im Code, Error-Handling für fehlende Datei, pandas statt csv-Modul.
Output:
import pandas as pd
from datetime import datetime
try:
# CSV einlesen
df = pd.read_csv('users.csv')
# signup_date zu datetime konvertieren
df['signup_date'] = pd.to_datetime(df['signup_date'])
# Nur 2026 filtern
df_2026 = df[df['signup_date'].dt.year == 2026]
# In neue CSV schreiben
df_2026[['name', 'email']].to_csv('users_2026.csv', index=False)
print(f"{len(df_2026)} User aus 2026 exportiert.")
except FileNotFoundError:
print("Fehler: users.csv nicht gefunden.")
except Exception as e:
print(f"Fehler beim Verarbeiten: {e}")
Das ist produktionsreif. Es macht genau was du wolltest. Gleiche KI, anderer Prompt.
Vorher/Nachher: Recherche-Aufgabe
Versuch 1 — zu breit
Was ist der Unterschied zwischen Claude und ChatGPT?
Output:
Claude und ChatGPT sind beides Large Language Models. Claude wurde von Anthropic entwickelt und legt besonderen Wert auf Sicherheit und Transparenz. ChatGPT wurde von OpenAI entwickelt und ist seit 2022 das bekannteste LLM für Consumer. Beide haben unterschiedliche Stärken je nach Anwendungsfall.
Das ist wahr, aber du weißt danach immer noch nicht welches du für deine konkrete Aufgabe nutzen solltest.
Versuch 2 — mit klarem Use-Case
Kontext: Ich bin Entwickler und will ein LLM nutzen um Code zu reviewen und Bugs zu finden. Ich arbeite hauptsächlich mit Python und TypeScript.
Aufgabe: Vergleich Claude und ChatGPT speziell für Code-Review und Bug-Detection.
Format: Tabelle mit drei Zeilen: Code-Verständnis, Bug-Erkennung, Code-Generierung. Pro Spalte eine Bewertung (schwach/mittel/stark) + ein Satz Begründung.
Output:
| Kriterium | Claude Opus 4.7 | GPT-5 | |---|---|---| | Code-Verständnis | Stark — kann lange Code-Files lesen (200k Context), erkennt strukturelle Zusammenhänge gut | Stark — schnellere Antworten, aber kürzeres Context Window (32k) | | Bug-Erkennung | Stark — findet edge-cases und logische Fehler zuverlässig | Mittel — findet offensichtliche Bugs, übersieht manchmal subtile Race-Conditions | | Code-Generierung | Stark — produziert idiomatischen Python/TS-Code mit wenig Nachbesserung | Stark — sehr schnell, manchmal etwas verbose |
Empfehlung für deinen Use-Case: Claude für tiefes Code-Review (wegen Context-Länge), ChatGPT für schnelle Snippets.
Das kannst du sofort nutzen. Gleiche Frage, völlig anderes Ergebnis.
Was mit guten Prompts möglich wird (und was nicht)
Mit dem strukturellen Prinzip kannst du:
- Texte in einem bestimmten Stil schreiben lassen (formell, locker, technisch, marketing-mäßig)
- Code für konkrete Use-Cases generieren die tatsächlich laufen
- Recherche-Ergebnisse strukturiert bekommen statt Wall-of-Text
- Brainstorming lenken durch Constraints (z. B. "gib mir 5 Ideen für X, alle müssen unter 100€ Budget bleiben")
- Übersetzungen mit Kontext die nicht robotisch klingen
- Daten umformatieren (CSV zu JSON, Markdown zu HTML, etc.)
Was auch die besten Prompts nicht können:
- Aktuelle Fakten garantieren — LLMs halluzinieren manchmal, besonders bei seltenen Details. Prüf wichtige Fakten nach.
- Mathematik mit vielen Schritten — große Rechnungen gehen oft schief. Für sowas brauchst du Tools (Python, Wolfram Alpha).
- Persönliche Erinnerungen — das LLM weiß nicht was du gestern gemacht hast, außer du schreibst es in den Prompt.
- Konsistenz über sehr lange Konversationen — nach 20-30 Nachrichten vergisst es Details vom Anfang. Dann: neuer Chat + Zusammenfassung reinkopieren.
Wie du dein erstes gutes Prompt schreibst — Schritt für Schritt
Setz dich vor ChatGPT, Claude oder Gemini. Dann:
Schritt 1: Was willst du wirklich?
Nicht "ich will einen Text". Sondern: "Ich will eine LinkedIn-Bio die mich als Python-Entwickler positioniert, 150 Wörter, locker aber professionell."
Schritt 2: Welchen Kontext braucht das LLM?
Überleg: Was weiß das LLM nicht, was aber wichtig ist? Schreib das als ersten Block ins Prompt.
Beispiel: "Kontext: Ich bin seit 3 Jahren Python-Entwickler, arbeite hauptsächlich mit FastAPI und PostgreSQL, und suche gerade remote Jobs im DACH-Raum."
Schritt 3: Wie soll das Ergebnis aussehen?
Schreib explizit: "Drei kurze Absätze" oder "Bullet-Liste mit 5 Punkten" oder "JSON-Objekt mit keys: title, summary, tags".
Schritt 4: Gibt es ein Beispiel?
Wenn ja, häng es ans Prompt. "Hier ein Stil-Beispiel: [dein Beispiel]". Das LLM wird den Stil matchen.
Schritt 5: Abschicken, prüfen, nachbessern
Schick das Prompt ab. Lies die Antwort. Passt es? Super. Passt es nicht ganz? Schreib nach: "Gut, aber mach es weniger formell" oder "kürzer, max 100 Wörter". LLMs lernen während der Konversation.
Das ist der ganze Prozess. Fünf Minuten Denkarbeit beim Prompt sparen dir eine Stunde Nachbesserung am Output.
Drei konkrete Prompts zum Ausprobieren
Kopier diese 1:1 und probier sie aus. Dann änder die Details auf deinen Use-Case.
Prompt 1: E-Mail schreiben
Kontext: Ich habe eine Kundenanfrage bekommen die ich nicht selbst beantworten kann weil das Thema außerhalb meines Zuständigkeitsbereichs liegt. Ich will die Anfrage an Kollegin Sarah weiterleiten.
Aufgabe: Schreib eine kurze E-Mail an Sarah die erklärt worum es geht und warum ich sie um Hilfe bitte.
Format: Betreff-Zeile + zwei kurze Absätze.
Ton: Kollegial, nicht zu formell.
Details: Die Kundenanfrage betrifft eine Rechnung aus 2024 die noch nicht bezahlt wurde. Der Kunde heißt "Firma ABC GmbH". Sarah ist zuständig für Buchhaltung.
Prompt 2: Code schreiben
Kontext: Ich will in einer Next.js 15 App eine API-Route bauen die einen Health-Check macht.
Aufgabe: Schreib eine TypeScript-Datei `app/api/health/route.ts` die auf GET-Request antwortet mit JSON: { "status": "ok", "timestamp": <aktueller ISO-Timestamp> }.
Format: TypeScript, Next.js 15 App Router Syntax, Export einer GET-Function.
Beispiel-Response: { "status": "ok", "timestamp": "2026-04-19T14:35:22.000Z" }
Prompt 3: Brainstorming
Kontext: Ich plane einen Workshop zum Thema "Prompt Engineering für Nicht-Techniker" (Dauer: 90 Minuten, Zielgruppe: Marketing-Leute ohne IT-Hintergrund).
Aufgabe: Gib mir 5 konkrete Übungen die ich im Workshop machen kann, sodass die Teilnehmer am Ende selbst gute Prompts schreiben können.
Format: Liste mit 5 Übungen. Pro Übung: Titel, Dauer, kurze Beschreibung (2-3 Sätze), was die Teilnehmer dabei lernen.
Constraint: Jede Übung max. 15 Minuten, keine technischen Tools außer ChatGPT im Browser.
Probier alle drei. Dann änder Details und schau was passiert.
Was du jetzt tun solltest
Geh zu ChatGPT, Claude oder Gemini. Nimm eine echte Aufgabe die du heute sowieso machen musst — eine E-Mail, ein Code-Snippet, eine Recherche — und schreib ein strukturiertes Prompt nach dem Prinzip oben.
Kontext → Aufgabe → Format → (optional) Beispiel.
Schick es ab. Vergleich das Ergebnis mit dem was du bekommen hättest wenn du nur "schreib mir X" getippt hättest.
Der Unterschied wird drastisch sein. Und das ist erst der Anfang.
Wenn du Fragen hast oder dein erstes gutes Prompt zeigen willst — komm in den FlowKI Club Discord, Zone "KI-Einstieg & Basics". Da sind andere Anfänger die gerade dasselbe lernen.
Wie wir diesen Artikel geprüft haben
- Tests durchgeführt am: 2026-04-19
- Hardware: Browser, keine Spezial-Hardware
- Software-Versionen: ChatGPT (GPT-5), Claude Opus 4.7, Google Gemini 2.5 Pro
- KI-Unterstützung: Alle Beispiel-Prompts wurden in mindestens zwei LLMs getestet. Strukturierung mit Claude vorformuliert, manuell überarbeitet.
- Sponsor/Affiliate: keines
Wie wir diesen Artikel geprüft haben
- Tests am
- 2026-04-19, eigene Tests mit GPT-5, Claude Opus 4.7, Gemini 2.5 Pro
- Hardware
- Browser, keine Spezial-Hardware
- Software
- ChatGPT (GPT-5), Claude Opus 4.7, Google Gemini 2.5 Pro
- KI-Einsatz
- Alle Beispiel-Prompts wurden in mindestens zwei LLMs getestet. Die Vorher/Nachher-Paare sind echte Outputs. Strukturierung und Erklärungen wurden mit Claude vorformuliert und manuell überarbeitet.