AI Literacy — Kompetenz

Prompt Engineering ist veraltet. Context Engineering ist die Zukunft.

Die meisten Menschen kennen “Prompt Engineering” als Buzzword. Was dahinter steckt, ist mächtiger als ein guter Befehl — und verändert, wie man wirklich effektiv mit KI arbeitet.

Was Prompt Engineering bedeutet, warum der Begriff zu kurz greift, und was Context Engineering als reifere Rahmung verändert.

Der bekannte Begriff

Was ist Prompt Engineering?

Prompt Engineering beschreibt die Praxis, Anweisungen an ein KI-Modell so zu formulieren, dass es nützliche Antworten liefert. Der Begriff klingt technisch — und das ist sein Problem. Er legt nahe, dass die entscheidende Variable der Befehl selbst ist. Die richtige Wortwahl. Der perfekte Satz.

In der Praxis funktioniert das selten so. Wer gelernt hat, der KI präzise Anweisungen zu geben, macht bereits mehr als die meisten — aber wer dabei stehen bleibt, verschenkt den größten Teil der Möglichkeiten.

“Der Begriff Prompt Engineering legt nahe, dass es darum geht den richtigen Satz zu finden. In Wirklichkeit geht es darum dem Modell die richtige Situation zu geben.”

Was wirklich funktioniert, ist nicht die Optimierung eines einzelnen Befehls — sondern das Aufbauen eines Rahmens: Wer ist die KI in diesem Gespräch? Was soll erreicht werden? Was weiß sie noch nicht? In welchem Format soll sie antworten? Diese Fragen sind mächtiger als jedes Prompt-Template.

Die reifere Rahmung

Context Engineering — was sich dahinter verbirgt

Andrej Karpathy — Ex-Forschungschef bei OpenAI, ehemals Tesla AI — prägte den Begriff Context Engineering als Gegenkonzept: Es geht nicht um den einzelnen Prompt, sondern um den gesamten Kontext der einem Modell zur Verfügung steht. Karpathy beschreibt es als die eigentliche Ingenieursaufgabe: das Context Window mit der richtigen Information zu füllen.

KI-Modelle sind Kontext-Verarbeitungsmaschinen. Sie können nur das nutzen, was im Context Window steht — dem Bereich, den das Modell in einem Gespräch “sehen” kann. Alles was nicht darin steht, existiert für das Modell nicht.

System-Prompt

Wer ist die KI in diesem Gespräch? Welche Rolle übernimmt sie, welche Grenzen gelten, welcher Ton ist angemessen?

Aufgaben-Frame

Was soll erreicht werden? Nicht der Befehl — das Ziel. Was ist das gewünschte Ergebnis, und welche Constraints gelten dabei?

Wissensbasis

Welche Informationen braucht die KI, die sie nicht selbst hat? Teamgröße, Situation, Vorgeschichte, Constraints, Stakeholder.

Context Engineering bedeutet nicht, dass man mehr schreiben muss — es bedeutet, dass man bewusster auswählt was relevant ist. Ein gut gerahmter Kontext ist oft kürzer als ein schlecht formulierter Prompt, der in zehn Sätzen versucht zu erklären was hätte in drei Sätzen stehen können.

Warum das für euch relevant ist

Wer täglich mit KI arbeitet, context-engineert bereits

Wer täglich mit Claude, ChatGPT oder Copilot arbeitet, liefert bereits Kontext — bewusst oder unbewusst. Der Unterschied zwischen “KI funktioniert nicht” und “KI funktioniert gut” liegt fast immer am Kontext, nicht am Modell.

  • Agile Coaches die eine Retrospektive vorbereiten: Kontext heißt hier — Team-Größe, Dauer der letzten Sprints, aktuelle Stimmung, was zuletzt funktioniert hat. Ohne diesen Rahmen bekommt man generische Retrospektiven-Ideen.
  • Scrum Master die Stakeholder-Updates formulieren: Kontext heißt hier — Zielgruppe des Updates, was die Stakeholder bereits wissen, was sie entscheiden müssen. Ohne diesen Rahmen bekommt man einen neutralen Text der niemanden abholt.
  • Product Owner die User Stories formulieren: Kontext heißt hier — welches Problem wird gelöst, wer ist die Persona, was ist der Business-Value. Ohne diesen Rahmen bekommt man Stories die technisch korrekt sind aber den Kern verfehlen.

Der entscheidende Punkt

Context Engineering ist keine technische Kompetenz. Es ist eine Denk-Kompetenz: Was braucht die KI, um in meiner Situation nützlich zu sein? Wer das gelernt hat zu stellen, bevor er tippt, arbeitet strukturell besser mit KI als jemand der perfekte Prompts auswendig lernt.

Praktischer Einstieg

Vier Fragen vor jedem KI-Gespräch

Eine einfache Merkhilfe, die kein Prompt-Template ersetzt, aber die richtige Denkweise einübt:

1

Wer soll die KI sein?

Rolle, Perspektive, Ton. Eine KI die als erfahrener Agile Coach antwortet, liefert andere Ergebnisse als eine KI die als neutraler Assistent antwortet — selbst bei derselben Frage.

2

Was ist das eigentliche Ziel?

Nicht der Befehl, sondern das Ergebnis. "Schreib eine E-Mail" ist ein Befehl. "Ich möchte dass mein Stakeholder versteht, warum wir den Sprint-Scope reduzieren — ohne dass er sich übergangen fühlt" ist ein Ziel.

3

Was weiß die KI noch nicht?

Kontext liefern: Teamgröße, Situation, Constraints, Vorgeschichte. Die KI weiß nichts über euer Team, euren Kunden, eure Organisationskultur — bis ihr es liefert.

4

Wie soll die Ausgabe aussehen?

Format, Länge, Sprache, Struktur. Soll die KI eine Liste liefern, einen Fließtext, eine E-Mail, eine Tabelle? Soll sie Optionen anbieten oder eine Empfehlung machen? Soll sie auf Deutsch antworten, in einfacher Sprache, in professionellem Ton?

Abgrenzung

Was Context Engineering nicht ist

1

Kein Zaubertrick

Schlechte Ideen werden durch guten Kontext nicht besser. Context Engineering verbessert die Qualität der Antworten — aber nur wenn die zugrunde liegende Frage oder Aufgabe sinnvoll ist. KI verstärkt was man hineingibt.

2

Kein Ersatz für Urteilsvermögen

Die KI antwortet auf den Kontext den sie bekommt — du entscheidest ob der Kontext stimmt. Ob das was die KI produziert hat, stimmt, hilfreich ist, in die Situation passt — das bleibt menschliche Aufgabe.

3

Kein einmaliges Setup

Kontext ist gesprächsspezifisch. Was für eine Stakeholder-Kommunikation funktioniert, funktioniert nicht automatisch für eine Retrospektiven-Moderation. Jeder neue Kontext braucht einen neuen Frame.

Das hängt zusammen mit

AI Literacy

Prompt Engineering ist eine der Kernkompetenzen die AI Literacy aufbaut.

Agentic AI

Agents managen Context automatisch — der nächste Schritt nach Context Engineering.

Open Source AI

Lokale Modelle reagieren besonders stark auf Kontext-Qualität.

← Zurück zur AI Literacy Übersicht