Generativ AI och språkmodeller
RLHF
På engelska: Reinforcement learning from human feedback (RLHF)
Förklaring
RLHF är en teknik där man använder mänsklig feedback för att lära en AI att agera på ett sätt som människor föredrar. Tänk dig att du tränar en hund: du belönar den när den gör rätt och korrigerar den när den gör fel. På samma sätt får en AI-modell feedback från människor om vilka svar som är bra eller dåliga.
Ursprung och källa
OpenAI (InstructGPT-artikel), 2022