In diesem Guide erkläre ich die Grundlagen von Prompt Engineering für Lehrkräfte und gehe vor allem auf die Praxis ein. Anhand von Experimenten mit realistischen Prompts zeige ich, wie man von einer „OK-Antwort“ zu einem „unterrichtsreifen Output“ kommt – Schritt für Schritt, mit Bewertungen und Verbesserungen.
Inhalt: Prompt Engineering für Lehrkräfte

Einleitung: Warum Prompts mehr sind als Zauberformeln
KI ist längst im Unterricht angekommen – ob als Textgenerator für Arbeitsblätter, Quiz-Assistent oder Ideenlieferant. Lehrkräfte stehen nun vor einer zentralen Frage: Wie nutze ich diese Werkzeuge so, dass sie mir wirklich helfen?
Die Antwort liegt in einer neuen Basiskompetenz: Prompt Engineering für Lehrkräfte. Was technisch klingt, ist in Wahrheit ein Handwerk: präzise Eingaben formulieren, die die KI zu nützlichen, didaktisch sinnvollen Ergebnissen führen.
Am Ende gibt es einen Ausblick auf den nächsten Schritt: Context Engineering – eine Technik, die wir auf Griffl tiefer behandeln.
👉 Lies auch: Creating Effective Learning Objectives with AI
Was ist Prompt Engineering?
Prompt Engineering bedeutet, Eingaben für KI-Modelle wie ChatGPT oder Claude so zu formulieren, dass die Ausgaben präzise, nützlich und strukturiert sind. Für Lehrkräfte heißt das: In wenigen Minuten Arbeitsblätter, Quizfragen oder differenzierte Aufgaben erstellen, statt Stunden an Vorbereitung zu verlieren.
Grundprinzipien guter Prompts
Gib dir etwas Mühe mit deinem Prompt, und deine Ergebnisse werden exponentiell besser werden. Hier sind einige Kriterien, die wichtig für einen erfolgreichen Prompt sind.
- Klarheit: Schreibe so, wie du eine Kollegin instruieren würdest.
- Zielgruppe: Gib an, für wen die Übungen sind, also. z.B. „für die 3. Klasse“
- Rollen zuweisen: „Du bist eine Mathelehrerin in der 7. Klasse …“
- Output-Format: detaillierte und präzise Angaben zum gewünschten Ergebnis, z.B. Tabellen, Bullet Points, Lösungsteile
- Iteration: Prompts sind Startpunkte, nicht Endpunkte.
👉 Lies auch: ADDIE-Modell
Jetzt geht’s aber an die Beispiele, wie gewohnt als Ki-Experiment! Ich dokumentiere:
- Ausgangsprompt
- Output der KI (simuliert)
- Bewertung (Note 1–5)
- Analyse der Schwächen & Stärken
- Verbesserter Prompt → erneuter Output → Bewertung
- Meta-Vergleich: Wie sich Prompt + Output entwickelt haben
- Theoretische Verbesserungen: Was wir über Prompt-Design im Lehrkontext lernen
🧪 Prompt Engineering im Experiment: Arbeitsblatt für die 3. Klasse (Mathematik)
Schritt 1: Ausgangsprompt
Prompt:
„Du bist eine Grundschullehrerin. Erstelle ein Arbeitsblatt mit 5 Rechenaufgaben im Zahlenraum bis 100. Format: Tabelle mit Aufgaben, Lösungen separat.“
Output (simuliert)
Aufgabe
45 + 32
18 + 27
64 – 29
70 – 46
52 + 19
Lösungen:
- 77
- 45
- 35
- 24
- 71
Bewertung Output: 2,5/5
- ✅ Tabelle vorhanden, Aufgaben lösbar.
- ❌ Keine Spaltenüberschriften, kein sauberer Arbeitsblatt-Charakter.
- ❌ Aufgaben wirken beliebig, keine Progression, kein Kontext.
- ❌ Für die 3. Klasse: zu „nackt“, es fehlt Motivation.
Schritt 2: Erste Überarbeitung
Neuer Prompt:
„Du bist Mathematiklehrerin in der 3. Klasse. Erstelle ein Arbeitsblatt mit 5 Rechenaufgaben im Zahlenraum bis 100. Mische Addition und Subtraktion. Stelle die Aufgaben in einer Tabelle mit den Spalten: Nr. | Aufgabe | Lösung. Gib die Lösungen gesammelt am Ende des Dokuments aus.“
Output (simuliert)
Nr. | Aufgabe | Lösung |
---|---|---|
1 | 25 + 36 | |
2 | 72 – 48 | |
3 | 15 + 24 | |
4 | 63 – 19 | |
5 | 88 – 57 |
Lösungen:
- 61
- 24
- 39
- 44
- 31
Bewertung Output: 3,5/5
- ✅ Struktur verbessert: saubere Tabelle, Spalten klar.
- ✅ Mischung von Addition & Subtraktion.
- ❌ Keine Progression, Aufgaben weiterhin zufällig.
- ❌ Motivation fehlt – Schüler:innen sehen hier „Übungsliste“, kein Kontext.
Schritt 3: Pädagogik und Progression hinzufügen
Neuer Prompt:
„Du bist Mathematiklehrerin in der 3. Klasse. Erstelle ein Arbeitsblatt mit 5 Rechenaufgaben im Zahlenraum bis 100. Mische Addition und Subtraktion. Ordne die Aufgaben nach steigender Schwierigkeit: von leicht bis knifflig (inkl. Übertrag). Stelle die Aufgaben in einer Tabelle mit Spalten: Nr. | Aufgabe | Lösung. Gib die Lösungen gesammelt am Ende unter ‚Lösungen‘ aus.“
Output (simuliert)
Nr. | Aufgabe | Lösung |
---|---|---|
1 | 12 + 15 | |
2 | 34 – 17 | |
3 | 48 + 29 | |
4 | 65 – 47 | |
5 | 78 + 36 |
Lösungen:
- 27
- 17
- 77
- 18
- 114
Bewertung Output: 4,5/5
- ✅ Progression sichtbar: von einfach bis knifflig.
- ✅ Didaktisch sinnvoll: Übertrag bei Aufgabe 5.
- ✅ Tabelle & Lösungen korrekt.
- ❌ Immer noch kein Motivationsrahmen – Aufgaben sind abstrakt.
Schritt 4: Story-Element einbauen (Endversion)
Neuer Prompt:
„Du bist Mathematiklehrerin in der 3. Klasse. Erstelle ein Arbeitsblatt mit 5 Rechenaufgaben im Zahlenraum bis 100. Mische Addition und Subtraktion. Ordne die Aufgaben nach steigender Schwierigkeit: von leicht bis knifflig (inkl. Übertrag). Integriere die Aufgaben in eine kleine Geschichte: Kinder kaufen im Supermarkt ein (z. B. Äpfel, Bananen, Preise). Stelle die Aufgaben in einer Tabelle (Nr. | Aufgabe | Lösung). Sammle die Lösungen am Ende unter ‚Lösungen‘.“
Output (simuliert)
Thema: Einkauf im Supermarkt
Nr. | Aufgabe | Lösung |
---|---|---|
1 | Anna kauft 12 Äpfel und 15 Bananen. Wie viele Früchte hat sie insgesamt? | |
2 | Tom hatte 34 Bonbons, er isst 17. Wie viele bleiben übrig? | |
3 | Ein Brot kostet 48 Cent, ein Saft 29 Cent. Wie viel kostet beides? | |
4 | Lisa hat 65 €, sie kauft ein Spiel für 47 €. Wie viel Geld bleibt ihr? | |
5 | Max kauft Äpfel für 78 Cent und 1 Birne für 36 Cent. Wie viel bezahlt er? |
Lösungen:
- 27
- 17
- 77
- 18
- 114
Bewertung Output: 5/5
- ✅ Progression & Schwierigkeit passen zur 3. Klasse.
- ✅ Story-Element motiviert, wirkt lebensnah.
- ✅ Tabelle strukturiert, sofort einsatzbereit.
- ✅ Lösungen am Ende, wie gefordert.
🧪 Praxisbeispiel B: Differenzierte Textaufgaben (7. Klasse, Gymnasium, Mathematik)
Schritt 1: Ausgangsprompt
Prompt:
„Erstelle drei Versionen derselben Textaufgabe: leicht, mittel, schwer. Zielgruppe: 7. Klasse Gymnasium, Fach: Mathematik.“
LLM-Modell: GPT-4o (Simulation, 2025)
Output (GPT-4o, Simulation)
- Leicht: „Paul hat 1/2 einer Pizza gegessen. Wie viel Pizza bleibt übrig?“
- Mittel: „Anna hat 3/4 einer Torte. Sie isst 1/4. Wie viel Torte bleibt?“
- Schwer: „Ein Zug fährt 3/5 der Strecke. Danach legt er noch 2/7 zurück. Wie viel der Strecke ist er insgesamt gefahren?“
Bewertung: 3/5
- ✅ Differenzierung vorhanden (leicht/mittel/schwer).
- ✅ Zielgruppe genannt.
- ❌ Themenwahl zufällig, keine systematische Progression (Operatoren mischen, Nenner-Arten).
- ❌ Keine Formatierung (z. B. Tabelle).
- ❌ „Schwer“-Aufgabe wirkt unpassend für 7. Klasse, da zu viele Brüche gemischt sind.
Gedanke: Noch zu oberflächlich. Differenzierung muss an Lernzielen festgemacht werden (z. B. gleiche Nenner → unterschiedliche Nenner → gemischte Zahlen).
Schritt 2: Überarbeitung
Prompt:
„Du bist Mathematiklehrer in der 7. Klasse Gymnasium. Thema: Bruchrechnung (Addition und Subtraktion). Erstelle drei Versionen derselben Textaufgabe: leicht, mittel, schwer. Leicht: gleiche Nenner. Mittel: unterschiedliche Nenner. Schwer: gemischte Zahlen. Gib die Aufgaben untereinander aus, Lösungen gesammelt am Ende.“
LLM-Modell: GPT-4o (Simulation, 2025)
Output (GPT-4o, Simulation)
- Leicht: „Lisa isst 1/4 eines Kuchens und danach 2/4. Wie viel hat sie gegessen?“
- Mittel: „Tom fährt 2/3 der Strecke mit dem Rad und 1/6 zu Fuß. Wie viel ist er unterwegs?“
- Schwer: „Sophie trinkt 1 1/2 Liter Wasser am Vormittag und 3/4 Liter am Nachmittag. Wie viel trinkt sie insgesamt?“
Lösungen:
- 3/4
- 5/6
- 2 1/4
Bewertung: 4/5
- ✅ Struktur klarer, Lernprogression sichtbar.
- ✅ Aufgaben realitätsnah (Kuchen, Strecke, Wasser).
- ❌ Kein einheitliches Format, schwer vergleichbar.
- ❌ Für Unterrichtsmaterial fehlt Tabellenform oder klare Kennzeichnung.
Gedanke: Schon sehr brauchbar, aber noch nicht „unterrichtsbereit“. Es braucht konsistentes Format, klare Trennung Aufgaben/Lösungen.
Schritt 3: Optimierung
Prompt:
„Du bist Mathematiklehrer in der 7. Klasse Gymnasium. Thema: Bruchrechnung (Addition/Subtraktion). Erstelle drei Versionen derselben Textaufgabe (leicht, mittel, schwer). - Leicht: gleiche Nenner. - Mittel: unterschiedliche Nenner. - Schwer: gemischte Zahlen. Präsentiere die Aufgaben in einer Tabelle mit den Spalten Nr. | Aufgabe | Lösung. Sammle die Lösungen am Ende in einem separaten Abschnitt unter ‚Lösungen‘.“
LLM-Modell: GPT-4o (Simulation, 2025)
Output (GPT-4o, Simulation)
Nr. | Aufgabe | Lösung |
---|---|---|
1 | Lisa isst 1/4 Kuchen und 2/4 Kuchen. Wie viel hat sie gegessen? | |
2 | Tom läuft 2/3 km und danach 1/6 km. Wie viel ist er unterwegs? | |
3 | Sophie trinkt 1 1/2 Liter Wasser und danach 3/4 Liter. Wie viel insgesamt? |
Lösungen:
- 3/4
- 5/6
- 2 1/4
Bewertung: 4,5/5
- ✅ Tabelle mit Struktur = klarer Einsatz im Unterricht.
- ✅ Lernprogression gut sichtbar.
- ✅ Realistische Aufgaben.
- ❌ Kleine Schwäche: „Leicht“ und „Mittel“ wirken noch zu nah beieinander.
Gedanke: Letzter Feinschliff: Kontext für alle Aufgaben angleichen (z. B. gemeinsames Thema: Rezepte). Dann ist es für Schüler:innen greifbarer.
Schritt 4: Endversion
Prompt:
„Du bist Mathematiklehrer in der 7. Klasse Gymnasium. Thema: Bruchrechnung (Addition/Subtraktion). Erstelle drei Versionen derselben Textaufgabe (leicht, mittel, schwer) innerhalb eines einheitlichen Kontexts: Kochen mit Rezepten. - Leicht: gleiche Nenner. - Mittel: unterschiedliche Nenner. - Schwer: gemischte Zahlen. Präsentiere in Tabelle (Nr. | Aufgabe | Lösung). Sammle die Lösungen am Ende.“
LLM-Modell: GPT-4o (Simulation, 2025)
Output (GPT-4o, Simulation)
Nr. | Aufgabe | Lösung |
---|---|---|
1 | Für ein Rezept braucht Anna 1/4 l Milch und 2/4 l Milch. Wie viel Milch insgesamt? | |
2 | Paul benötigt 2/3 kg Mehl und 1/6 kg Zucker. Wie viel Zutaten hat er insgesamt? | |
3 | Lisa gießt 1 1/2 l Wasser in den Teig und später noch 3/4 l. Wie viel Wasser insgesamt? |
Lösungen:
- 3/4 l
- 5/6 kg
- 2 1/4 l
Bewertung: 5/5
- ✅ Einheitlicher Kontext (Kochen) = hohe Motivation.
- ✅ Lernprogression pädagogisch korrekt (von Nennergleichheit bis gemischte Zahlen).
- ✅ Tabellenformat → sofort einsetzbar.
- ✅ Lösungsübersicht am Ende.
🔎 Synthese aus beiden Experimenten (3. und 7. Klasse)
Was folgt aus diesem Experiment? Gehen wir die einzelnen Aspekte durch und wie das verbesserte Prompting die Ausgabe verändert.
- Zielgruppenorientierung verändert den Prompt massiv: 3. Klasse = einfache Rechnungen + Storys; 7. Klasse = komplexere Operatoren + didaktisch abgestufte Schwierigkeit.
- Iteration führt zur Perfektion: Erst nach 3–4 Runden entstehen Prompts, die pädagogisch sinnvoll, motivierend und praktisch einsetzbar sind.
- Kontext macht den Unterschied: Vom „nackten Arbeitsblatt“ zum motivierenden Szenario (Supermarkt, Rezepte).
- Praxisnutzen: Mit klaren Prompts können Lehrkräfte binnen Minuten Unterrichtsmaterialien erstellen, die sofort nutzbar sind.
📊 Meta-Vergleich der Outputs
Prompt-Version | Note | Output-Charakter | Theoretische Verbesserung | Output-Verbesserung |
---|---|---|---|---|
Ausgangsprompt | 2,5 | zufällige Aufgaben, kein Layout | Unklare Struktur, Zielgruppe zu vage | Tabelle ohne Überschrift, unmotivierende Aufgaben |
Überarbeitung | 3,5 | strukturierter, aber monoton | Format + Zielgruppe definiert | Aufgaben korrekt, aber keine Progression |
Optimiert | 4,5 | Progression sichtbar | Pädagogik integriert (steigende Schwierigkeit) | Sinnvoller Aufbau, aber unkontextualisiert |
Endversion | 5 | lebensnah, motivierend, didaktisch | Storytelling + Alltagskontext eingebaut | Abwechslungsreich, realistisch, fertig nutzbar |
🧾 Bericht: Was wir gelernt haben
- Zielgruppe bestimmt die Qualität. „3. Klasse“ macht den Unterschied zwischen zu einfachen und zu schweren Aufgaben.
- Prompt-Struktur ist zentral. Spalten, Lösungen, Format = weniger Nacharbeit.
- Pädagogische Logik steigert die Brauchbarkeit. Steigende Schwierigkeit → echte Lernprogression.
- Storytelling motiviert. Kontext (Supermarkt, Alltag) macht Aufgaben ansprechend.
- Iterationen sind Pflicht. Erst nach 4 Durchgängen wurde der Prompt „klassentauglich“.
🔮 Ausblick: Der nächste Schritt heißt Context Engineering
Viele Lehrkräfte, die erste Erfahrungen mit Prompt Engineering sammeln, berichten das Gleiche: „Die Ergebnisse sind gut, aber manchmal fehlen mir die Feinheiten. Es wirkt noch nicht so, als ob die KI wirklich meine Klasse vor Augen hat.“
Genau an diesem Punkt beginnt Context Engineering.
Während Prompts die richtigen Fragen stellen, sorgt Context Engineering dafür, dass die KI auch die richtigen Rahmenbedingungen kennt. Es ist ein Unterschied, ob du sagst:
„Erstelle ein Arbeitsblatt über Bruchrechnung.“
oder ob du der KI erklärst:
„Erstelle ein Arbeitsblatt zur Bruchrechnung für eine 7. Klasse Gymnasium. Lernziel: Addition von Brüchen mit unterschiedlichen Nennern. Zeitrahmen: 15 Minuten. Die Klasse ist heterogen, daher drei Schwierigkeitsstufen. Kontext: Kochen mit Rezepten. Lösungen am Ende.“
Beide Male produziert die KI Aufgaben. Aber nur im zweiten Fall entstehen Materialien, die sofort nutzbar sind, die zur Altersstufe passen und die sich didaktisch sinnvoll steigern.
Wenn du mit Prompts arbeitest, denk immer einen Schritt weiter. Frag dich nicht nur „Welche Aufgabe will ich?“, sondern „In welchem Kontext soll die Aufgabe stehen?“. Allein diese Haltung verbessert deine Ergebnisse sofort.
Und das Beste: Manchmal braucht es gar keine seitenlangen Prompts. Mit den richtigen Prinzipien kannst du auch mit knappen Eingaben erstaunlich gute Resultate erzielen – ohne dass Prompt Engineering ausufert.
👉 Wenn du erfahren willst, wie das in der Praxis funktioniert, und wie man KI wirklich „programmiert“, dann kontaktiere mich auf LinkedIn!
FAQ – Prompt Engineering für Lehrkräfte
Was ist Prompt Engineering für Lehrkräfte?
Prompt Engineering bedeutet, Eingaben so zu gestalten, dass KI-Outputs für den Unterricht nützlich, strukturiert und passgenau sind.
Wie kann ich Prompts für Schülergruppen optimieren?
Immer Zielgruppe, Lernziel und Format angeben – z. B. ‘3. Klasse, Rechnen bis 100, Tabelle mit Lösungen am Ende’.
Welche Vorteile hat Iteration bei Prompts?
Jeder Durchgang verbessert Struktur, Schwierigkeit und Motivation. Selten ist der erste Prompt perfekt. Man sollte immer den ersten Prototyp verbessern.
Welche Rolle spielt Kontext im Prompt Engineering?
Storys oder Alltagsszenarien (Supermarkt, Rezepte) motivieren und machen Aufgaben lebensnah.
Was ist der Unterschied zu Context Engineering?
Context Engineering erweitert Prompts um detaillierte Rahmenbedingungen (Lernziele, Profile, Settings) und liefert robustere Ergebnisse mit weniger Aufwand.
📚 Literaturverzeichnis
Prompt Engineering & KI in der Lehre
- Mollick, E. & Mollick, L. (2023). The Practical Guide to AI in the Classroom. Wharton Interactive.
- Holmes, W., Bialik, M., & Fadel, C. (2019). Artificial Intelligence in Education: Promises and Implications for Teaching and Learning. CCR.
- Luckin, R. (2018). Machine Learning and Human Intelligence. UCL Press.
Instructional Design & Didaktik
- Sweller, J., Ayres, P., & Kalyuga, S. (2011). Cognitive Load Theory. Springer.
- Mayer, R. E. (2021). Multimedia Learning (3rd ed.). Cambridge University Press.
- Merrill, M. D. (2002). First principles of instruction. ETR&D, 50(3), 43–59.
Policy & Leitlinien
- OECD. (2023). Opportunities, guidelines and guardrails for AI in education. OECD Publishing.
- U.S. Department of Education. (2023). AI and the Future of Teaching and Learning.