In vielen Workshops und Projekten zeigt sich ein verbreitetes Missverständnis: KI-Tools wie ChatGPT werden wie Suchmaschinen behandelt – schnell befragt, sofort ein Ergebnis erwartet. Doch generative KI funktioniert anders. Sie ist kein Google 2.0, sondern ein neues Teammitglied. Und wie in jedem funktionierenden Team gilt: Nicht jede Person muss alles können. Entscheidend ist das Zusammenspiel der Kompetenzen.
Das GenAI-Dreieck: Modell, Prompt, Kontext – und wir mittendrin
Das sogenannte GenAI-Dreieck – bestehend aus Modell, Prompt und Kontext – wurde von Christoph Magnussen in seinem Video „ChatGPT Basics: Vom Anfänger zum Pro“ als zentrale Grundlage für den effektiven Einsatz generativer KI beschrieben. Wer mit KI arbeitet – oder Systeme gestaltet, die KI beinhalten – sollte das GenAI-Dreieck kennen: Modell, Prompt und Kontext. Diese drei Elemente entscheiden über Qualität, Relevanz und Nutzbarkeit der Ergebnisse:
- Modell: Welches System ist für die Aufgabe geeignet?
- Prompt: Wie klar und präzise ist die Aufgabenstellung formuliert?
- Kontext: Welche Informationen sind notwendig, damit die KI versteht, worum es geht?
Gerade für Usability-Engineers und UX-Designer ist das zentral – sowohl für die eigene Nutzung als auch für die Gestaltung von KI-basierten Lösungen. Denn wenn AI-Agenten Menschen bei Aufgaben unterstützen sollen, müssen Modellwahl und Kontextverständnis zur Aufgabenlogik passen. Wer nur ein Tool bedient, statt gezielt ein Agenten-Setup zu gestalten, verschenkt Potenzial.
Die Kompetenz, das richtige Modell zu wählen
Nicht jedes Modell eignet sich für jede Aufgabe. Wer Perplexity, NotebookLM oder ChatGPT verwendet, nutzt nicht einfach unterschiedliche Oberflächen – sondern unterschiedliche Logiken:
- Perplexity recherchiert in Echtzeit mit Quellenangabe.
- NotebookLM analysiert umfangreiche Dokumente und strukturiert komplexe Inhalte.
- ChatGPT generiert Sprache, strukturiert Ideen und formuliert Vorschläge.
Wer diese Unterschiede kennt, kann gezielt entscheiden, welches Modell wann eingesetzt wird. Das ist keine technische Spielerei, sondern eine Schlüsselkompetenz für den produktiven Einsatz von KI.
Die Kompetenz, richtig zu fragen und zu beauftragen
Ein Prompt ist kein Stichwort, sondern ein Arbeitsauftrag. Gute Prompts sind klar, vollständig und konkret – wie ein gutes Briefing an ein Teammitglied. Sie benennen Rolle, Ziel und Grenzen:
- „Du bist ein Experte für deutsches Arbeitsrecht.“
- „Deine Aufgabe ist es, den folgenden Vertrag auf Risikoklauseln zu prüfen.“
- „Gib keine allgemeine Rechtsberatung.“
Diese Art der Kommunikation entscheidet über das Ergebnis. Prompt-Kompetenz ist darum keine Spielerei, sondern Teil eines systematischen Projektmanagements mit KI.
Die Kompetenz, den richtigen Kontext bereitzustellen
Viele unterschätzen, wie viel heutige KI-Systeme verstehen können – und wie viel sie verstehen müssen. GPT-4o, Claude oder Gemini verarbeiten Millionen Tokens. Trotzdem liefern viele Eingaben nur Bruchstücke. Besser: Die KI erhält Einblick in Dokumente, Ziele, Zielgruppen und Entscheidungsrahmen.
Ein erprobtes Vorgehen:
- Relevante Studien mit Perplexity finden
- Inhalte in NotebookLM strukturieren
- Ergebnisse in ChatGPT verdichten und aufbereiten
So entsteht aus unübersichtlichen Quellen eine fundierte Entscheidungsgrundlage. Kontextbereitstellung ist keine lästige Vorarbeit – sie ist Voraussetzung für Qualität.
Human-AI-Teaming heißt: Rollen, Schnittstellen und Vertrauen
Wer interaktive KI-Systeme entwickelt, gestaltet Zusammenarbeit – zwischen Mensch und Maschine. Dabei reicht es nicht, eine schöne Oberfläche zu bauen. Entscheidend ist: Welche Aufgaben sind typisch? Wo kann die KI zuverlässig unterstützen? Und wo braucht es menschliche Kontrolle?
Studien zeigen: Kreative, variantenreiche Aufgaben (z.?B. Ideen, Texte, Gliederungen) profitieren stark vom KI-Einsatz. Analytische, kontextabhängige Aufgaben (z.?B. Strategien, Bewertungen, Entscheidungen) erfordern menschliches Urteilsvermögen. Gute UX erkennt diesen Unterschied – und gestaltet Systeme, die Übergaben, Kontrolle und Rollenverteilung nachvollziehbar machen.
Im Human-AI-Teaming zählt nicht Allwissen, sondern Rollenklarheit:
- Technisches Grundverständnis: Was kann das Modell?
- Tool-Kompetenz: Welches Werkzeug eignet sich wann?
- Kommunikationsfähigkeit: Klare Ziele, klare Prompts, klares Feedback
- Reflexionsfähigkeit: Wann entscheidet der Mensch?
Gute KI-Ergebnisse sind Teamleistung
Kompetenz schlägt Lizenz. Wer versteht, wie Modell, Prompt und Kontext zusammenspielen, erzielt bessere Ergebnisse – unabhängig vom Preis des Tools.
Genau hier setzt Usability-Engineering an: mit systematischer Aufgabenanalyse, nutzerzentrierter Gestaltung und dem Blick auf die tatsächliche Nutzungssituation. Wer auf dieser Basis AI-Agenten zusammenstellt, schafft Werkzeuge, die nicht nur funktionieren – sondern wirklich helfen.
Human-AI-Teaming ist keine technische Spielerei. Es ist eine neue Form der Zusammenarbeit, in der methodisches Denken, klare Kommunikation und reflektiertes Design den Unterschied machen.
Quelle: Video „ChatGPT Basics: Vom Anfänger zum Pro“ auf YouTube: https://www.youtube.com/watch?v=rj7I7ajyLd0
Via: https://human-ai-teaming.de/posts/automatisch-gespeicherter-entwurf/