Tutorial 1: Prompt Engineering – Anweisungen für KI-Systeme strukturiert formulieren

Beschreibung

Dieses Tutorial vermittelt praxisorientiertes Wissen und Techniken zur effektiven Nutzung von KI-Systemen durch gezieltes Prompt Engineering. Die Qualität von KI-Antworten hängt maßgeblich von der präzisen Formulierung der Eingaben (Prompts) ab. Ziel des Tutorials ist es, Teilnehmenden ein tiefgehendes Verständnis für die Struktur und Optimierung von Prompts zu vermitteln, um die Leistung von KI-Modellen wie ChatGPT gezielt zu steuern. Zu Beginn werden die Grundlagen der Sprachmodelle und deren Funktionsweise behandelt, um ein tiefgehendes Verständnis für die Mechanismen hinter generativer KI zu entwickeln. Anschließend folgt eine Einführung in die wichtigsten Prinzipien des Prompt Engineerings, darunter Klarheit, Strukturierung, Kontextualisierung und iterative Verbesserung. In Form eines Prompt Canvas werden die zentralen Informationsbausteine eines Prompts in vier Bereiche strukturiert:

  • Rolle und Zielgruppe: Durch die Definition einer spezifischen Persona oder Rolle wird die Perspektive des Sprachmodells angepasst, sodass die Antwort mit der erwarteten Expertise oder Sichtweise übereinstimmt. Die Identifizierung der Zielgruppe stellt sicher, dass der Inhalt dem Wissensstand und den Interessen der vorgesehenen Empfänger entspricht.
  • Ziel und Aufgaben: Eine klare Formulierung des Ziels gibt dem Sprachmodell ein spezifisches Objektiv, wodurch der Fokus und die Zweckmäßigkeit der Antwort verbessert werden. Die Unterteilung des Ziels in Schritt-für-Schritt-Anweisungen oder Fragen führt das Modell systematisch durch komplexe Aufgaben oder Erklärungen.
  • Kontext und Referenzen: Das Bereitstellen von Kontext und relevanten Referenzen liefert dem Sprachmodell notwendige Hintergrundinformationen, reduziert Mehrdeutigkeiten und erhöht die Genauigkeit der Antwort. Die Einbindung von Referenzen ermöglicht es dem Modell zudem, spezifische Daten zu integrieren oder bestimmten Rahmenwerken zu folgen, was besonders in akademischen oder technischen Zusammenhängen wichtig ist.
  • Ausgabe und Tonalität: Die Spezifizierung des gewünschten Formats und Tons stellt sicher, dass die Antwort stilistischen und strukturellen Erwartungen entspricht. Unabhängig davon, ob die Ausgabe in Form eines Berichts, einer Liste oder einer informellen Erklärung erfolgen soll, ist es hilfreich, Tonattribute wie Luxus, Autorität oder Informalität anzugeben, abhängig von der Zielgruppe oder dem Zweck.

Durch praktische Übungen erlernen die Teilnehmer verschiedene Techniken, um ihre Prompts zu optimieren und gezielt auf bestimmte Anwendungsszenarien auszurichten. Ein weiterer Schwerpunkt liegt auf fortgeschrittenen Strategien, wie Chain-of-Thought und Tree-of-Thought. Zudem erhalten die Teilnehmer Einblicke in den Einsatz von Custom-GPTs bzw. AI Agenten, die für unternehmensspezifische Anwendungsfälle maßgeschneidert werden können.

Am Ende des Seminars verfügen die Teilnehmer über ein fundiertes Verständnis der Schlüsselprinzipien des Prompt Engineerings und sind in der Lage, KI-Modelle gezielt für ihre spezifischen Bedürfnisse zu steuern. Sie haben gelernt, wie sie eigene GPT-Lösungen entwickeln, effektive Prompts entwerfen und das volle Potenzial generativer KI für verschiedene Anwendungsbereiche ausschöpfen können.

Termin

Mittwoch, 17. September 2025, 09:00–10:30 Uhr

Zielgruppe

Wissenschaftler*innen, Unternehmensvertreter*innen und Studierende, die an Modellierung und Grundlagen der Wirtschaftsinformatik interessiert sind

Registrierung

Registrierungen für das Tutorial erfolgen über das ConfTool.

Tutorial Chair

THIS SITE MAY CONTAIN TRANSLATIONS POWERED BY OTHER THIRD PARTY SERVICES.