Prompt Engineering für Lehrkräfte: Einsteiger-Guide

P

In diesem Guide erkläre ich die Grundlagen von Prompt Engineering für Lehrkräfte und gehe vor allem auf die Praxis ein. Anhand von Experimenten mit realistischen Prompts zeige ich, wie man von einer „OK-Antwort“ zu einem „unterrichtsreifen Output“ kommt – Schritt für Schritt, mit Bewertungen und Verbesserungen.

Illustration Prompt Engineering für Lehrkräfte mit Schriftzug
erstellt mit recraft.ai

Einleitung: Warum Prompts mehr sind als Zauberformeln

KI ist längst im Unterricht angekommen – ob als Textgenerator für Arbeitsblätter, Quiz-Assistent oder Ideenlieferant. Lehrkräfte stehen nun vor einer zentralen Frage: Wie nutze ich diese Werkzeuge so, dass sie mir wirklich helfen?

Die Antwort liegt in einer neuen Basiskompetenz: Prompt Engineering für Lehrkräfte. Was technisch klingt, ist in Wahrheit ein Handwerk: präzise Eingaben formulieren, die die KI zu nützlichen, didaktisch sinnvollen Ergebnissen führen.

Am Ende gibt es einen Ausblick auf den nächsten Schritt: Context Engineering – eine Technik, die wir auf Griffl tiefer behandeln.

👉 Lies auch: Creating Effective Learning Objectives with AI

Was ist Prompt Engineering?

Prompt Engineering bedeutet, Eingaben für KI-Modelle wie ChatGPT oder Claude so zu formulieren, dass die Ausgaben präzise, nützlich und strukturiert sind. Für Lehrkräfte heißt das: In wenigen Minuten Arbeitsblätter, Quizfragen oder differenzierte Aufgaben erstellen, statt Stunden an Vorbereitung zu verlieren.

Grundprinzipien guter Prompts

Gib dir etwas Mühe mit deinem Prompt, und deine Ergebnisse werden exponentiell besser werden. Hier sind einige Kriterien, die wichtig für einen erfolgreichen Prompt sind.

  • Klarheit: Schreibe so, wie du eine Kollegin instruieren würdest.
  • Zielgruppe: Gib an, für wen die Übungen sind, also. z.B. „für die 3. Klasse“
  • Rollen zuweisen: „Du bist eine Mathelehrerin in der 7. Klasse …“
  • Output-Format: detaillierte und präzise Angaben zum gewünschten Ergebnis, z.B. Tabellen, Bullet Points, Lösungsteile
  • Iteration: Prompts sind Startpunkte, nicht Endpunkte.

👉 Lies auch: ADDIE-Modell

Jetzt geht’s aber an die Beispiele, wie gewohnt als Ki-Experiment! Ich dokumentiere:

  1. Ausgangsprompt
  2. Output der KI (simuliert)
  3. Bewertung (Note 1–5)
  4. Analyse der Schwächen & Stärken
  5. Verbesserter Prompt → erneuter Output → Bewertung
  6. Meta-Vergleich: Wie sich Prompt + Output entwickelt haben
  7. Theoretische Verbesserungen: Was wir über Prompt-Design im Lehrkontext lernen

🧪 Prompt Engineering im Experiment: Arbeitsblatt für die 3. Klasse (Mathematik)

Schritt 1: Ausgangsprompt

Prompt:
„Du bist eine Grundschullehrerin. Erstelle ein Arbeitsblatt mit 5 Rechenaufgaben im Zahlenraum bis 100. Format: Tabelle mit Aufgaben, Lösungen separat.“

Output (simuliert)

Aufgabe

45 + 32
18 + 27
64 – 29
70 – 46
52 + 19

Lösungen:

  1. 77
  2. 45
  3. 35
  4. 24
  5. 71

Bewertung Output: 2,5/5

  • ✅ Tabelle vorhanden, Aufgaben lösbar.
  • ❌ Keine Spaltenüberschriften, kein sauberer Arbeitsblatt-Charakter.
  • ❌ Aufgaben wirken beliebig, keine Progression, kein Kontext.
  • ❌ Für die 3. Klasse: zu „nackt“, es fehlt Motivation.

Schritt 2: Erste Überarbeitung

Neuer Prompt:
„Du bist Mathematiklehrerin in der 3. Klasse. Erstelle ein Arbeitsblatt mit 5 Rechenaufgaben im Zahlenraum bis 100. Mische Addition und Subtraktion. Stelle die Aufgaben in einer Tabelle mit den Spalten: Nr. | Aufgabe | Lösung. Gib die Lösungen gesammelt am Ende des Dokuments aus.“

Output (simuliert)

Nr.AufgabeLösung
125 + 36
272 – 48
315 + 24
463 – 19
588 – 57

Lösungen:

  1. 61
  2. 24
  3. 39
  4. 44
  5. 31

Bewertung Output: 3,5/5

  • ✅ Struktur verbessert: saubere Tabelle, Spalten klar.
  • ✅ Mischung von Addition & Subtraktion.
  • ❌ Keine Progression, Aufgaben weiterhin zufällig.
  • ❌ Motivation fehlt – Schüler:innen sehen hier „Übungsliste“, kein Kontext.

Schritt 3: Pädagogik und Progression hinzufügen

Neuer Prompt:
„Du bist Mathematiklehrerin in der 3. Klasse. Erstelle ein Arbeitsblatt mit 5 Rechenaufgaben im Zahlenraum bis 100. Mische Addition und Subtraktion. Ordne die Aufgaben nach steigender Schwierigkeit: von leicht bis knifflig (inkl. Übertrag). Stelle die Aufgaben in einer Tabelle mit Spalten: Nr. | Aufgabe | Lösung. Gib die Lösungen gesammelt am Ende unter ‚Lösungen‘ aus.“

Output (simuliert)

Nr.AufgabeLösung
112 + 15
234 – 17
348 + 29
465 – 47
578 + 36

Lösungen:

  1. 27
  2. 17
  3. 77
  4. 18
  5. 114

Bewertung Output: 4,5/5

  • ✅ Progression sichtbar: von einfach bis knifflig.
  • ✅ Didaktisch sinnvoll: Übertrag bei Aufgabe 5.
  • ✅ Tabelle & Lösungen korrekt.
  • ❌ Immer noch kein Motivationsrahmen – Aufgaben sind abstrakt.

Schritt 4: Story-Element einbauen (Endversion)

Neuer Prompt:
„Du bist Mathematiklehrerin in der 3. Klasse. Erstelle ein Arbeitsblatt mit 5 Rechenaufgaben im Zahlenraum bis 100. Mische Addition und Subtraktion. Ordne die Aufgaben nach steigender Schwierigkeit: von leicht bis knifflig (inkl. Übertrag). Integriere die Aufgaben in eine kleine Geschichte: Kinder kaufen im Supermarkt ein (z. B. Äpfel, Bananen, Preise). Stelle die Aufgaben in einer Tabelle (Nr. | Aufgabe | Lösung). Sammle die Lösungen am Ende unter ‚Lösungen‘.“

Output (simuliert)

Thema: Einkauf im Supermarkt

Nr.AufgabeLösung
1Anna kauft 12 Äpfel und 15 Bananen. Wie viele Früchte hat sie insgesamt?
2Tom hatte 34 Bonbons, er isst 17. Wie viele bleiben übrig?
3Ein Brot kostet 48 Cent, ein Saft 29 Cent. Wie viel kostet beides?
4Lisa hat 65 €, sie kauft ein Spiel für 47 €. Wie viel Geld bleibt ihr?
5Max kauft Äpfel für 78 Cent und 1 Birne für 36 Cent. Wie viel bezahlt er?

Lösungen:

  1. 27
  2. 17
  3. 77
  4. 18
  5. 114

Bewertung Output: 5/5

  • ✅ Progression & Schwierigkeit passen zur 3. Klasse.
  • ✅ Story-Element motiviert, wirkt lebensnah.
  • ✅ Tabelle strukturiert, sofort einsatzbereit.
  • ✅ Lösungen am Ende, wie gefordert.

🧪 Praxisbeispiel B: Differenzierte Textaufgaben (7. Klasse, Gymnasium, Mathematik)

Schritt 1: Ausgangsprompt

Prompt:
„Erstelle drei Versionen derselben Textaufgabe: leicht, mittel, schwer. Zielgruppe: 7. Klasse Gymnasium, Fach: Mathematik.“

LLM-Modell: GPT-4o (Simulation, 2025)


Output (GPT-4o, Simulation)

  • Leicht: „Paul hat 1/2 einer Pizza gegessen. Wie viel Pizza bleibt übrig?“
  • Mittel: „Anna hat 3/4 einer Torte. Sie isst 1/4. Wie viel Torte bleibt?“
  • Schwer: „Ein Zug fährt 3/5 der Strecke. Danach legt er noch 2/7 zurück. Wie viel der Strecke ist er insgesamt gefahren?“

Bewertung: 3/5

  • ✅ Differenzierung vorhanden (leicht/mittel/schwer).
  • ✅ Zielgruppe genannt.
  • ❌ Themenwahl zufällig, keine systematische Progression (Operatoren mischen, Nenner-Arten).
  • ❌ Keine Formatierung (z. B. Tabelle).
  • ❌ „Schwer“-Aufgabe wirkt unpassend für 7. Klasse, da zu viele Brüche gemischt sind.

Gedanke: Noch zu oberflächlich. Differenzierung muss an Lernzielen festgemacht werden (z. B. gleiche Nenner → unterschiedliche Nenner → gemischte Zahlen).


Schritt 2: Überarbeitung

Prompt:
„Du bist Mathematiklehrer in der 7. Klasse Gymnasium. Thema: Bruchrechnung (Addition und Subtraktion). Erstelle drei Versionen derselben Textaufgabe: leicht, mittel, schwer. Leicht: gleiche Nenner. Mittel: unterschiedliche Nenner. Schwer: gemischte Zahlen. Gib die Aufgaben untereinander aus, Lösungen gesammelt am Ende.“

LLM-Modell: GPT-4o (Simulation, 2025)


Output (GPT-4o, Simulation)

  • Leicht: „Lisa isst 1/4 eines Kuchens und danach 2/4. Wie viel hat sie gegessen?“
  • Mittel: „Tom fährt 2/3 der Strecke mit dem Rad und 1/6 zu Fuß. Wie viel ist er unterwegs?“
  • Schwer: „Sophie trinkt 1 1/2 Liter Wasser am Vormittag und 3/4 Liter am Nachmittag. Wie viel trinkt sie insgesamt?“

Lösungen:

  1. 3/4
  2. 5/6
  3. 2 1/4

Bewertung: 4/5

  • ✅ Struktur klarer, Lernprogression sichtbar.
  • ✅ Aufgaben realitätsnah (Kuchen, Strecke, Wasser).
  • ❌ Kein einheitliches Format, schwer vergleichbar.
  • ❌ Für Unterrichtsmaterial fehlt Tabellenform oder klare Kennzeichnung.

Gedanke: Schon sehr brauchbar, aber noch nicht „unterrichtsbereit“. Es braucht konsistentes Format, klare Trennung Aufgaben/Lösungen.


Schritt 3: Optimierung

Prompt:
„Du bist Mathematiklehrer in der 7. Klasse Gymnasium. Thema: Bruchrechnung (Addition/Subtraktion). Erstelle drei Versionen derselben Textaufgabe (leicht, mittel, schwer). - Leicht: gleiche Nenner. - Mittel: unterschiedliche Nenner. - Schwer: gemischte Zahlen. Präsentiere die Aufgaben in einer Tabelle mit den Spalten Nr. | Aufgabe | Lösung. Sammle die Lösungen am Ende in einem separaten Abschnitt unter ‚Lösungen‘.“

LLM-Modell: GPT-4o (Simulation, 2025)


Output (GPT-4o, Simulation)

Nr.AufgabeLösung
1Lisa isst 1/4 Kuchen und 2/4 Kuchen. Wie viel hat sie gegessen?
2Tom läuft 2/3 km und danach 1/6 km. Wie viel ist er unterwegs?
3Sophie trinkt 1 1/2 Liter Wasser und danach 3/4 Liter. Wie viel insgesamt?

Lösungen:

  1. 3/4
  2. 5/6
  3. 2 1/4

Bewertung: 4,5/5

  • ✅ Tabelle mit Struktur = klarer Einsatz im Unterricht.
  • ✅ Lernprogression gut sichtbar.
  • ✅ Realistische Aufgaben.
  • ❌ Kleine Schwäche: „Leicht“ und „Mittel“ wirken noch zu nah beieinander.

Gedanke: Letzter Feinschliff: Kontext für alle Aufgaben angleichen (z. B. gemeinsames Thema: Rezepte). Dann ist es für Schüler:innen greifbarer.


Schritt 4: Endversion

Prompt:
„Du bist Mathematiklehrer in der 7. Klasse Gymnasium. Thema: Bruchrechnung (Addition/Subtraktion). Erstelle drei Versionen derselben Textaufgabe (leicht, mittel, schwer) innerhalb eines einheitlichen Kontexts: Kochen mit Rezepten. - Leicht: gleiche Nenner. - Mittel: unterschiedliche Nenner. - Schwer: gemischte Zahlen. Präsentiere in Tabelle (Nr. | Aufgabe | Lösung). Sammle die Lösungen am Ende.“

LLM-Modell: GPT-4o (Simulation, 2025)


Output (GPT-4o, Simulation)

Nr.AufgabeLösung
1Für ein Rezept braucht Anna 1/4 l Milch und 2/4 l Milch. Wie viel Milch insgesamt?
2Paul benötigt 2/3 kg Mehl und 1/6 kg Zucker. Wie viel Zutaten hat er insgesamt?
3Lisa gießt 1 1/2 l Wasser in den Teig und später noch 3/4 l. Wie viel Wasser insgesamt?

Lösungen:

  1. 3/4 l
  2. 5/6 kg
  3. 2 1/4 l

Bewertung: 5/5

  • ✅ Einheitlicher Kontext (Kochen) = hohe Motivation.
  • ✅ Lernprogression pädagogisch korrekt (von Nennergleichheit bis gemischte Zahlen).
  • ✅ Tabellenformat → sofort einsetzbar.
  • ✅ Lösungsübersicht am Ende.

🔎 Synthese aus beiden Experimenten (3. und 7. Klasse)

Was folgt aus diesem Experiment? Gehen wir die einzelnen Aspekte durch und wie das verbesserte Prompting die Ausgabe verändert.

  • Zielgruppenorientierung verändert den Prompt massiv: 3. Klasse = einfache Rechnungen + Storys; 7. Klasse = komplexere Operatoren + didaktisch abgestufte Schwierigkeit.
  • Iteration führt zur Perfektion: Erst nach 3–4 Runden entstehen Prompts, die pädagogisch sinnvoll, motivierend und praktisch einsetzbar sind.
  • Kontext macht den Unterschied: Vom „nackten Arbeitsblatt“ zum motivierenden Szenario (Supermarkt, Rezepte).
  • Praxisnutzen: Mit klaren Prompts können Lehrkräfte binnen Minuten Unterrichtsmaterialien erstellen, die sofort nutzbar sind.

📊 Meta-Vergleich der Outputs

Prompt-VersionNoteOutput-CharakterTheoretische VerbesserungOutput-Verbesserung
Ausgangsprompt2,5zufällige Aufgaben, kein LayoutUnklare Struktur, Zielgruppe zu vageTabelle ohne Überschrift, unmotivierende Aufgaben
Überarbeitung3,5strukturierter, aber monotonFormat + Zielgruppe definiertAufgaben korrekt, aber keine Progression
Optimiert4,5Progression sichtbarPädagogik integriert (steigende Schwierigkeit)Sinnvoller Aufbau, aber unkontextualisiert
Endversion5lebensnah, motivierend, didaktischStorytelling + Alltagskontext eingebautAbwechslungsreich, realistisch, fertig nutzbar

🧾 Bericht: Was wir gelernt haben

  1. Zielgruppe bestimmt die Qualität. „3. Klasse“ macht den Unterschied zwischen zu einfachen und zu schweren Aufgaben.
  2. Prompt-Struktur ist zentral. Spalten, Lösungen, Format = weniger Nacharbeit.
  3. Pädagogische Logik steigert die Brauchbarkeit. Steigende Schwierigkeit → echte Lernprogression.
  4. Storytelling motiviert. Kontext (Supermarkt, Alltag) macht Aufgaben ansprechend.
  5. Iterationen sind Pflicht. Erst nach 4 Durchgängen wurde der Prompt „klassentauglich“.

🔮 Ausblick: Der nächste Schritt heißt Context Engineering

Viele Lehrkräfte, die erste Erfahrungen mit Prompt Engineering sammeln, berichten das Gleiche: „Die Ergebnisse sind gut, aber manchmal fehlen mir die Feinheiten. Es wirkt noch nicht so, als ob die KI wirklich meine Klasse vor Augen hat.“

Genau an diesem Punkt beginnt Context Engineering.

Während Prompts die richtigen Fragen stellen, sorgt Context Engineering dafür, dass die KI auch die richtigen Rahmenbedingungen kennt. Es ist ein Unterschied, ob du sagst:

„Erstelle ein Arbeitsblatt über Bruchrechnung.“

oder ob du der KI erklärst:

„Erstelle ein Arbeitsblatt zur Bruchrechnung für eine 7. Klasse Gymnasium. Lernziel: Addition von Brüchen mit unterschiedlichen Nennern. Zeitrahmen: 15 Minuten. Die Klasse ist heterogen, daher drei Schwierigkeitsstufen. Kontext: Kochen mit Rezepten. Lösungen am Ende.“

Beide Male produziert die KI Aufgaben. Aber nur im zweiten Fall entstehen Materialien, die sofort nutzbar sind, die zur Altersstufe passen und die sich didaktisch sinnvoll steigern.

Wenn du mit Prompts arbeitest, denk immer einen Schritt weiter. Frag dich nicht nur „Welche Aufgabe will ich?“, sondern „In welchem Kontext soll die Aufgabe stehen?“. Allein diese Haltung verbessert deine Ergebnisse sofort.

Und das Beste: Manchmal braucht es gar keine seitenlangen Prompts. Mit den richtigen Prinzipien kannst du auch mit knappen Eingaben erstaunlich gute Resultate erzielen – ohne dass Prompt Engineering ausufert.

👉 Wenn du erfahren willst, wie das in der Praxis funktioniert, und wie man KI wirklich „programmiert“, dann kontaktiere mich auf LinkedIn!

FAQ – Prompt Engineering für Lehrkräfte

Was ist Prompt Engineering für Lehrkräfte?

Prompt Engineering bedeutet, Eingaben so zu gestalten, dass KI-Outputs für den Unterricht nützlich, strukturiert und passgenau sind.

Wie kann ich Prompts für Schülergruppen optimieren?

Immer Zielgruppe, Lernziel und Format angeben – z. B. ‘3. Klasse, Rechnen bis 100, Tabelle mit Lösungen am Ende’.

Welche Vorteile hat Iteration bei Prompts?

Jeder Durchgang verbessert Struktur, Schwierigkeit und Motivation. Selten ist der erste Prompt perfekt. Man sollte immer den ersten Prototyp verbessern.

Welche Rolle spielt Kontext im Prompt Engineering?

Storys oder Alltagsszenarien (Supermarkt, Rezepte) motivieren und machen Aufgaben lebensnah.

Was ist der Unterschied zu Context Engineering?

Context Engineering erweitert Prompts um detaillierte Rahmenbedingungen (Lernziele, Profile, Settings) und liefert robustere Ergebnisse mit weniger Aufwand.

📚 Literaturverzeichnis

Prompt Engineering & KI in der Lehre

  • Mollick, E. & Mollick, L. (2023). The Practical Guide to AI in the Classroom. Wharton Interactive.
  • Holmes, W., Bialik, M., & Fadel, C. (2019). Artificial Intelligence in Education: Promises and Implications for Teaching and Learning. CCR.
  • Luckin, R. (2018). Machine Learning and Human Intelligence. UCL Press.

Instructional Design & Didaktik

  • Sweller, J., Ayres, P., & Kalyuga, S. (2011). Cognitive Load Theory. Springer.
  • Mayer, R. E. (2021). Multimedia Learning (3rd ed.). Cambridge University Press.
  • Merrill, M. D. (2002). First principles of instruction. ETR&D, 50(3), 43–59.

Policy & Leitlinien

Weiterführend auf Griffl.org

About the author

Herbert

Ich bin promovierter Philosoph mit einem Faible für effektvollen Content, KI-Tools und strukturierte Lernprozesse. Auf Griffl verbinde ich Theorie mit Praxis: für alle, die Lehre wirksam, aber menschlich gestalten wollen.

Add comment

By Herbert

Get in touch

I'm always happy to hear from you! Feel free to reach out to me with any questions, comments, or suggestions.

Latest

Tags