Zero-Shot Prompting
GroĂe LLMs (Language-Modelle) wie beispielsweise GPT-3.5 Turbo, GPT-4 und Claude 3 sind heute darauf abgestimmt, Anweisungen zu befolgen, und wurden mit groĂen Datenmengen trainiert. GroĂ angelegtes Training ermöglicht es diesen Modellen, einige Aufgaben auf "Zero-Shot"-Weise auszufĂŒhren. Zero-Shot-Prompting bedeutet, dass der Prompt, der verwendet wird, um mit dem Modell zu interagieren, keine Beispiele oder Demonstrationen enthĂ€lt. Der Zero-Shot-Prompt instruiert das Modell direkt, eine Aufgabe ohne zusĂ€tzliche Beispiele auszufĂŒhren, um es zu lenken.
Wir haben einige Zero-Shot-Beispiele im vorherigen Abschnitt ausprobiert. Hier ist eines der Beispiele, die wir verwendet haben (Text-Klassifizierung):
Prompt:
Klassifizieren Sie den Text als neutral, negativ oder positiv.
Text: Ich finde den Urlaub okay.
Empfindung:
Ausgabe:
Neutral
Beachten Sie, dass wir im oben genannten Prompt keine Beispiele fĂŒr Texte zusammen mit ihren Klassifizierungen gegeben haben, das LLM versteht "Empfindung" bereits â das sind die Zero-Shot-FĂ€higkeiten in Aktion.
Instruction Tuning hat sich als Verbesserung fĂŒr Zero-Shot Learning erwiesen Wei et al. (2022) (opens in a new tab). Instruction Tuning ist im Wesentlichen das Konzept des Feinabstimmens von Modellen auf DatensĂ€tze, die durch Anweisungen beschrieben werden. Weiterhin wurde RLHF (opens in a new tab) (Reinforcement Learning from Human Feedback) adaptiert, um das Instruction Tuning zu skalieren, wobei das Modell so ausgerichtet wird, dass es besser zu menschlichen PrĂ€ferenzen passt. Diese jĂŒngste Entwicklung treibt Modelle wie ChatGPT an. Wir werden all diese AnsĂ€tze und Methoden in den kommenden Abschnitten besprechen.
Wenn Zero-Shot nicht funktioniert, wird empfohlen, Demonstrationen oder Beispiele im Prompt bereitzustellen, was zu Few-Shot-Prompting fĂŒhrt. Im nĂ€chsten Abschnitt demonstrieren wir Few-Shot-Prompting.