Kontext-Engeneering – Zusammenhang schlägt Prompt

von Sascha Tegtmeyer | Apr. 2, 2026

Das Berufsbild des Prompt-Ingenieurs dürfte wohl eines sein, das am allerschnellsten durch KI ersetzt wurde. Früher haben alle über Prompts gesprochen. Welcher Prompt gut, welcher besser ist. Welcher Prompt angeblich den Unterschied macht. Einige Leute haben dir sogar Prompts verkauft, was von vornherein schon ein ziemlich verrücktes Geschäftsmodell war, wenn man eine grundsätzliche Idee von KI-Entwicklung hat.

Ich glaube, das war für eine Zeit lang auch richtig. Oder zumindest verständlich. Es war der einfachste Einstieg. Die Leute haben gemerkt, dass ChatGPT keine Google-Suche ist. Also haben sie angefangen, ihre Eingaben länger, genauer und ausgefeilter zu formulieren. Das war schon ein Fortschritt.

Aber aus heutiger Sicht würde ich sagen: Das greift zu kurz. Mein Running Gag war, dass man, wenn der Prompt ausführlich genug ist und den fertigen Beitrag bereits beinhaltet, man auch sicher sein könne, einen hochwertigen Output zu erhalten.

Fakt ist: Wenn du dein spezifisches Wissen und deine Erfahrung in den Ring wirfst und der KI gibst, um daraus etwas zu machen, wird das Zweiergespann aus Mensch und KI zu einer Superkraft. Der eigentliche Hebel ist der Kontext.

Das ist ein Werbebanner zu meinem Buch "Die Journalisten-Methode", der in den Text eingebettet ist.

Kontent-Engeneering rückt in den Mittelpunkt

Als ich die Journalisten-Methode geschrieben habe (Über mich, meine Leistungen), lag der Fokus noch viel stärker auf einzelnen Ergebnissen. Auf Materialsammlung, Rohtext, Weiterverarbeitung. Das ist nach wie vor nicht falsch. Aber es ist inzwischen zu klein gedacht. Die Technologie hat sich in nicht einmal einem Jahr so schnell fortentwickelt.

In der Praxis hat sich in erstaunlich kurzer Zeit sehr viel verschoben. Früher standen Prompting und einzelne Ergebnisse im Mittelpunkt. Heute geht es um Prozesse. Je besser der Prozess, desto besser das Ergebnis. Und der Schlüssel dazu ist Kontext. Das ist für mich keine Theorie mehr. Das ist das, was ich in der täglichen Arbeit sehe.

Du kannst heute immer noch einen cleveren Prompt schreiben. Klar. Das funktioniert auch. Aber wenn der Unterbau dünn ist, bleibt das Ergebnis meistens ebenfalls dünn. Vielleicht gut genug für einen kurzen Überblick. Vielleicht okay für einen ersten Entwurf. Aber selten so gut, dass du sagst: Genau das wollte ich haben.

Prompt-Ingenieur war gestern. Wenn man dem Berufsbild ein Update geben wollte, müsste man es “Prozessingenieur mit Schwerpunkt Kontext” nennen.

Der Kontext macht den Unterschied – Wer gute KI-Ergebnisse erzielen möchte, muss ihr den richtigen Zusammenhang liefern, weil die KI sonst nur raten kann. Foto: Sascha Tegtmeyer
Der Kontext macht den Unterschied – Wer gute KI-Ergebnisse erzielen möchte, muss ihr den richtigen Zusammenhang liefern, weil die KI sonst nur raten kann. Foto: Sascha Tegtmeyer

Der Prompt ist nur der Auslöser

Das Problem ist simpel: Viele Menschen behandeln KI immer noch wie eine bessere Suchmaschine oder einen Antwortautomaten. Ich glaube, ein Antwortautomat ist die beste Umschreibung für schlechte KI-Nutzung. Sie geben etwas Kurzes ein, warten auf die Antwort und hoffen, dass schon etwas Beeindruckendes herauskommt.

Genau an dem Punkt kippt es oft in Mittelmaß – wenn überhaupt.

Wenn du der KI nur einen Satz gibst, muss sie den Rest erraten. Dann arbeitet sie mit Wahrscheinlichkeiten, mit Durchschnitt, mit dem, was statistisch am ehesten passt. Was übrigens nicht in jedem Fall verkehrt ist. Manchmal möchtest du auch wissen, wie groß die Wahrscheinlichkeit für dieses oder jenes ist. Da sind KI-Antworten verblüffend gut.

Aber für individuelle Antworten taugen Dreiwort-Prompts nichts. Und genau deshalb klingen so viele KI-Ergebnisse austauschbar. Nicht, weil das Modell grundsätzlich nichts könnte. Sondern weil es mit zu wenig Futter losgeschickt wurde:

Menschen benutzen KI wie Google, geben dünne Anfragen ein und wundern sich dann über dünne Antworten.

Der Prompt ist also nicht unwichtig. Aber er ist eben nur die Initialzündung. Wenn dahinter nichts liegt, drückst du auf einen ziemlich leeren Raum.

Kontext verändert alles – im wahrsten Sinne des Wortes

Hochwertiger Kontext verändert alles. Ganz allgemein gesagt bedeutet das eine ganz einfache Sache.

Kontext heißt: alles, was die KI wissen muss, damit sie nicht raten muss.

Das können Regeln sein. Beispiele. Meine stundenlangen Transkripte. Forschung. Voice-DNA. Vorwissen. Ziele. Standards. Fehlermuster. Quellen. Ein Realitätsfilter. Ein Projektbriefing. Frühere Gespräche. Materialien aus deinem eigenen Alltag.

Erst dann wird es wirklich interessant.

Ich arbeite inzwischen fast ausschließlich mit und in Projekten. Ich habe ein Projekt als Fitnesscoach, eines zum Italienischlernen und eines fürs Schreiben. Diese Projekte existieren parallel in Claude, Gemini und ChatGPT. Alle bekommen denselben Grundkontext, inklusive eines Realitätsfilters gegen Schmeichelei, Halluzinationen und ja, auch gegen meine menschlichen, kognitiven Verzerrungen. Mein Schreibprojekt enthält zusätzlich alles, was für exzellente Texte nötig ist: Deep-Research-Dossiers, Schreibregeln, Beispiele und meine Voice-DNA, die habe ich mit stundenlangen Transkripten aus meinen Diktaten trainiert.

Und genau da verändert sich die Qualität. Plötzlich redest du nicht mehr mit irgendeiner allgemeinen KI. Du redest mit einem System, das vorbereitet ist.

Ein Projekt für Projekte

Das ist ein Punkt, den viele unterschätzen.

Ein Projekt in ChatGPT und Claude oder Google Gem ist in meinem Verständnis ein sauber gebauter Kontext-Ordner. Ein Arbeitsraum. Ein Behälter für alles, was die Künstliche Intelligenz braucht, um in einem bestimmten Feld wirklich stark zu werden. Meine Definition lautet wie folgt:

Ein Projekt ist ein Ordner mit klar definiertem Kontext – Realitätsfilter, themenspezifische Inhalte, oft Deep Researches, dazu Projektbriefing, Systemprompt und anschließend spezifischere Prompts.

Genau das ist für mich der Unterschied zwischen ein bisschen Herumspielen und echter Arbeit. Wer nur von Chat zu Chat springt, bekommt einzelne Antworten. Wer Projekte baut, bekommt mit der Zeit ein System.

Die Zusammenarbeit zwischen Mensch und Maschine wird zuverlässiger. Wenn du dein Fitnessprojekt einmal eingerichtet hast, steigt die Wahrscheinlichkeit erheblich, dass die KI dir zuverlässige und korrekte Rückmeldungen gibt. Ich habe in meinem Fitnessprojekt beispielsweise konfiguriert, dass die KI mich nach den Regeln des Stanford-Professors Andrew Huberman berät und mir Rezeptideen für gesunde Ernährung anhand der Mittelmeerdiät vorschlägt.

Und das ist nur ein Beispiel von sehr, sehr vielen.

Ein Projekt ist ein Ordner mit klar definiertem Kontext – Realitätsfilter, themenspezifische Inhalte, oft Deep Researches, dazu Projektbriefing, Systemprompt und anschließend spezifischere Prompts.
Ein Projekt ist ein Ordner mit klar definiertem Kontext – Realitätsfilter, themenspezifische Inhalte, oft Deep Researches, dazu Projektbriefing, Systemprompt und anschließend spezifischere Prompts.

Was bei mir konkret in den Kontext kommt

Damit das nicht zu abstrakt bleibt, hier einmal ganz schlicht, was bei mir typischerweise in so einen Kontext hineingeht:

  • ein klarer Zweck des Projekts
  • themenspezifische Materialien
  • eigene Transkripte und Diktate
  • Deep-Research-Dossiers
  • Schreibregeln und Qualitätsstandards
  • Voice-DNA und Beispiele
  • ein Realitätsfilter
  • laufende Korrekturen und Ergänzungen

Das Entscheidende ist nicht, dass die Liste lang ist. Das Entscheidende ist, dass sie relevant ist.

Denn ein KI-Projekt wird nicht automatisch besser, nur weil du immer mehr Zeug hineinkippst. Der Kontext ist nie abgeschlossen, aber man muss aufpassen, ihn nicht zu überladen. Je größer der Kontext, desto wichtiger werden Struktur und Relevanz.

Das ist ein wichtiger Satz.

Viele machen den Fehler, alles Mögliche in ein Projekt zu werfen und glauben dann, Masse sei schon Qualität. Ist sie nicht. Ein vermüllter Kontext ist kein guter Kontext und kann die Antworten sogar verschlechtern.

Warum Diktate dabei so wichtig sind

Der vielleicht größte Hebel ist für mich mein eigenes Material, ich produziere in einem absoluten Überfluss. Ich diktiere jeden Monat über 100.000 Wörter, was mehreren Büchern entspricht. Meine Ideen, meine Gedanken, meine Expertise.

Ich verbringe oft halbe Tage damit, Diktate einzusprechen. Diese Diktate sind nicht irgendein Nebenprodukt. Sie sind der Rohstoff. Dort steckt die eigentliche Substanz drin: Gedanken, Beobachtungen, Beispiele, Formulierungen, Widersprüche, Richtungswechsel, also genau das, was später dafür sorgt, dass ein Text nicht generisch klingt. So beschreibst du es in Transkript 1 auch selbst: erst Diktat, dann Transkript, dann Weiterverarbeitung mit KI.

Wenn du der KI nur sagst: „Schreib mir einen Text über Thema X“, bekommst du meistens einen ziemlich lieblosen Text über Thema X.

Wenn du ihr aber 30 Minuten echtes Diktat mit deiner Expertise gibst oder ein Interview, das du per Email mit einem Experten geführt hast, passiert etwas anderes. Dann arbeitet sie nicht mehr mit dem Durchschnitt. Dann arbeitet sie mit dir.

Und genau da beginnt für mich Kontext-Engineering in der Praxis.

Mein Werbebanner für meinen Online-Shop, auf dem mein Name steht, und der ist so genannt: „Nur Substanz, kein Marketing-Schrott.“

Mein Schreibprojekt lernt aus Material

Ein guter Prompt wie „Schreib bitte in meinem Stil“ reicht nicht. Das ist viel zu dünn. Wenn die KI wirklich in deine Richtung schreiben soll, braucht sie Material. Deshalb habe ich mir einen ganzen Ordner mit Transkripten gebaut, abertausende Wörter, etliche Stunden an eingesprochenen Transkripten, damit die KI meinen Stil lernt. Ich war über das Ergebnis fast ein bisschen erschrocken:

Es klingt nicht nur wie ich, sondern es fühlt sich so an, als würde ich mir selbst antworten.

Nicht der einzelne Prompt hat das erzeugt. Sondern die Summe aus Material, Struktur und Wiederholung.

Das zeigt sich besonders deutlich an echten Projekten mit perfekt strukturiertem Kontext

Nehmen wir mein Fitness-Coach-Projekt. Anfangs war das eher wie ein Gespräch mit einem Freund. Nett, hilfreich, aber begrenzt. Dann kamen Studien, Trainingslehre, Ernährungswissen und Mikronährstoffbiologie dazu. Und plötzlich wurde das System extrem präzise. Fast zu präzise. Ich musste die KI sogar darum bitten, sich ein bisschen mehr Freiraum zum Denken zu nehmen.

Auch daran sieht man gut, was hier eigentlich passiert.

Die KI wurde nicht deshalb besser, weil ich einen einzigen genialen Prompt gefunden habe. Sie wurde besser, weil der Kontext besser wurde. Oder noch einfacher gesagt: Ich habe ihr ein besseres Fundament gebaut.

Was die KI ausspuckt, kann nur so gut sein wie das, was du ihr hineingibst: Sie wurde nicht deshalb besser, weil ich einen einzigen genialen Prompt gefunden habe. Sie wurde besser, weil der Kontext besser wurde. Oder noch einfacher gesagt: Ich habe ihr ein besseres Fundament gebaut. Foto: Sascha Tegtmeyer
Was die KI ausspuckt, kann nur so gut sein wie das, was du ihr hineingibst: Sie wurde nicht deshalb besser, weil ich einen einzigen genialen Prompt gefunden habe. Sie wurde besser, weil der Kontext besser wurde. Oder noch einfacher gesagt: Ich habe ihr ein besseres Fundament gebaut. Foto: Sascha Tegtmeyer

Der eigentliche Kontext-Engeneering-Sprung liegt im Workflow

Genau an dieser Stelle wird auch sichtbar, warum die Journalisten-Methode heute weitergedacht werden muss.

Die ursprüngliche Logik war bereits stark: Material statt umgeschriebener Massenware, Selbstinterview statt Content aus zweiter Hand, Expertenwissen statt bloßem Umsortieren bestehender Artikel. Das alles trägt noch. Aber der Prozess geht inzwischen weiter. Viel weiter.

Heute kannst du einen Ablauf bauen, der viel ganzheitlicher ist: Du diktierst einen Text, die KI analysiert ihn, erstellt darauf basierend Deep Researches, schreibt einen Entwurf, verbessert ihn iterativ, formatierst ihn, lädst ihn in WordPress hoch, fügt Bilder und interne Links ein – und du liest am Ende gegen und veröffentlichst. Genau diese End-to-End-Logik hat die Journalisten-Methode in ihrer ursprünglichen Form noch nicht vollständig abgebildet.

Und genau deshalb ist „Kontext ist wichtiger als der Prompt“ eine Verschiebung des ganzen Denkmodells.

Das ist ein Werbebanner zu meinem Buch "Die Journalisten-Methode", der in den Text eingebettet ist.

Der Prompt ist tot, lang lebe der Prompt

Damit kein Missverständnis entsteht: Natürlich ist ein guter Prompt hilfreich. Klarheit hilft immer. Gute Fragen helfen immer. Ein sauberes Briefing hilft immer. Auch offizielle Prompting-Dokumentationen von Anthropic und OpenAI setzen auf klare Anweisungen, Beispiele und gut definierte Erfolgskriterien.

Ich liebe hochwertig strukturierte Eingaben. Deswegen mag ich die Diktier-App Superwhisper so sehr. Wenn ich meine Eingabe diktiere, gibt es dort einen Modus, der daraus direkt strukturierte Daten macht. Das heißt, du kannst den Prompt praktisch freihand diktieren, und die App macht daraus strukturierte Daten, wie sie die KI liebt.

Aber genau deshalb würde ich heute sagen: Der Prompt ist nicht tot. Er ist nur nicht mehr das Zentrum.

Er ist ein Baustein.

Ein guter Prompt ohne Kontext ist besser als ein schlechter Prompt ohne Kontext. Natürlich. Aber ein mittelguter Prompt mit starkem Fundament ist in der Praxis oft wertvoller als ein vermeintlich perfekter Prompt, der auf leerem Boden steht.

Das ist zumindest das, was ich in meiner Arbeit immer wieder sehe.

Fazit – Kontext ist King

Wenn du heute noch glaubst, dass die Qualität deiner KI-Ergebnisse vor allem an einem besonders schlauen Prompt hängt, dann greifst du wahrscheinlich zu kurz.

Der eigentliche Unterschied entsteht vorher.

Er entsteht in deinem Material.

In deinem Projektaufbau.

In deinen Regeln.

In deinem Realitätsfilter.

In deinem Diktat.

In deiner Struktur.

In der Frage, ob die KI raten muss oder ob sie wirklich etwas hat, womit sie arbeiten kann.

Genau deshalb ist Kontext für mich heute wichtiger als der Prompt.

Der Prompt stößt etwas an. Der Kontext entscheidet, was daraus wird.

Und ich glaube, das ist einer der größten Denkfehler, den gerade viele noch machen: Sie suchen nach dem perfekten Satz für die Eingabe, obwohl sie in Wahrheit an ihrem System arbeiten müssten.

Dort liegt der Hebel.

Dort wird es spannend.

Dort beginnt aus meiner Sicht das, was man heute wirklich Context-Engineering nennen kann.

Sascha Tobias Tegtmeyer

Sascha Tobias Tegtmeyer

Digital-Journalist | Content- und Social-Media-Experte | KI-Augmentation & Workflows

Ich bin Content- und Marketingstratege mit 12+ Jahren Erfahrung in Online-Redaktion, SEO, Social Media, Ads und digitalem Markenaufbau. Ich verbinde journalistische Präzision und klassisches Handwerk mit praxisnaher KI- und Automatisierungskompetenz, um Workflows effizienter, skalierbarer und qualitativ stärker zu machen. Ich bringe fundierte Erfahrung aus Verlag, Agentur und Inhouse-Rollen sowie im Aufbau und Betrieb eigener digitaler Projekte mit internationalen Partnern wie Apple und Accor mit. Autor des Fachbuchs „Die Journalisten-Methode“ (2025).

Kompetenznachweise 

Digitales Marketing

KI-Fluency & Teaching KI-Fluency

Elements of AI