Kontrollerar åtkomst...

Generativ AI och språkmodeller

RLHF

På engelska: Reinforcement learning from human feedback (RLHF)

Förklaring

RLHF är en teknik där man använder mänsklig feedback för att lära en AI att agera på ett sätt som människor föredrar. Tänk dig att du tränar en hund: du belönar den när den gör rätt och korrigerar den när den gör fel. På samma sätt får en AI-modell feedback från människor om vilka svar som är bra eller dåliga.

Ursprung och källa

OpenAI (InstructGPT-artikel), 2022

Läs mer