Jailbreaking (AI)
Förklaring
Jailbreaking inom AI innebär att man medvetet försöker kringgå de säkerhetsspärrar och begränsningar som en AI-modell har. Genom att använda speciella instruktioner eller trick kan man lura AI:n att bryta mot sina regler och generera innehåll som annars skulle blockeras.
Ursprung och källa
Anpassad från 'jailbreaking' av mobila enheter; populariserades i AI-kontexten under 2023