Faktentreue
LLMs neigen dazu, Antworten zu generieren, die kohĂ€rent und ĂŒberzeugend klingen, aber manchmal erfunden sein können. Eine Verbesserung der Prompts kann helfen, das Modell dazu zu bringen, genauere/faktentreue Antworten zu generieren und die Wahrscheinlichkeit zu verringern, inkonsistente und erfundene Antworten zu produzieren.
Einige Lösungen könnten beinhalten:
- Bereitstellen von Grundwahrheiten (z.B. ein verwandter Artikelabschnitt oder Wikipedia-Eintrag) als Teil des Kontextes, um die Wahrscheinlichkeit zu reduzieren, dass das Modell erfundenen Text produziert.
- Konfigurieren des Modells, um weniger vielfĂ€ltige Antworten zu produzieren, indem die Wahrscheinlichkeitsparameter verringert und es angewiesen wird, zuzugeben (z.B. âIch weiĂ es nichtâ), wenn es die Antwort nicht kennt.
- Im Prompt eine Kombination aus Beispielen von Fragen und Antworten bereitstellen, die es möglicherweise weiĂ und nicht weiĂ
Lassen Sie uns ein einfaches Beispiel betrachten:
Prompt:
Q: Was ist ein Atom?
A: Ein Atom ist ein winziges Teilchen, das alles aufbaut.
Q: Wer ist Alvan Muntz?
A: ?
Q: Was ist Kozar-09?
A: ?
Q: Wie viele Monde hat der Mars?
A: Zwei, Phobos und Deimos.
Q: Wer ist Neto Beto Roberto?
Ausgabe:
A: ?
Ich habe den Namen âNeto Beto Robertoâ erfunden, also ist das Modell in diesem Fall korrekt. Versuchen Sie, die Frage ein wenig zu verĂ€ndern und sehen Sie, ob Sie es zum Laufen bringen können. Es gibt verschiedene Wege, wie Sie dies basierend auf allem, was Sie bisher gelernt haben, weiter verbessern können.