ChatGPT prompt: Bizonytalanság Engedélyezése
OpenAI új kutatásán keresztül magyarázza el, miért „hallucinálnak” a nyelvi modellek és hogyan lehet ezt csökkenteni. A fő ok nem valamilyen rejtélyes hiba, hanem az, hogy a jelenlegi tanítási és értékelési módszerek a találgatást jutalmazzák az őszinte bizonytalanság helyett.
A hagyományos pontozás (pl. csak a helyes válaszok aránya) arra ösztönzi a modelleket, hogy akkor is mondjanak valamit, ha nem tudják a választ.
A megoldás kulcsa a jutalmazási függvény és az értékelési rendszerek átalakítása: a modelleknek lehetőséget kell adni arra, hogy „nem tudom” választ adjanak, és ezért részleges elismerést kapjanak, miközben a magabiztos tévedéseket erősebben kell büntetni.
Ehhez létrehoztam mindenki számára elérhető megoldást, amit ti is kitudtok próbálni.
Bizonytalanság Engedélyezése:
A következő kérdésre csak akkor adj választ, ha legalább 80%-ban biztos vagy benne. Ha nem vagy biztos, válaszolj így: “Nem tudom pontosan, de…” és magyarázd el, miért. Kérlek, jelezd a bizonytalanság mértékét százalékban is.