Active-Prompt
Chain-of-thought (CoT)-Methoden basieren auf einem festen Satz von menschen-annotierten Beispielen. Das Problem dabei ist, dass diese Beispiele möglicherweise nicht die effektivsten fĂŒr die unterschiedlichen Aufgaben sind. Um diesem Problem zu begegnen, schlugen Diao et al., (2023) (opens in a new tab) kĂŒrzlich einen neuen Prompting-Ansatz vor, der als Active-Prompt bezeichnet wird, um LLMs an verschiedene aufgabenspezifische Beispiel-Prompts (mit menschengestaltetem CoT-Reasoning annotiert) anzupassen.
Unten ist eine Illustration des Ansatzes dargestellt. Im ersten Schritt wird das LLM mit oder ohne ein paar CoT-Beispiele abgefragt. k mögliche Antworten werden fĂŒr einen Satz von Trainingsfragen generiert. Basierend auf den k Antworten wird eine Unsicherheitsmetrik berechnet (es wird die Uneinigkeit verwendet). Die unsichersten Fragen werden fĂŒr die Annotation durch Menschen ausgewĂ€hlt. Die neuen annotierten Beispiele werden dann verwendet, um jede Frage zu erschlieĂen.

Bildquelle: Diao et al., (2023) (opens in a new tab)