Kontrollerar åtkomst...

Säkerhet, etik och kvalitet

Jailbreaking (AI)

Förklaring

Jailbreaking inom AI innebär att man medvetet försöker kringgå de säkerhetsspärrar och begränsningar som en AI-modell har. Genom att använda speciella instruktioner eller trick kan man lura AI:n att bryta mot sina regler och generera innehåll som annars skulle blockeras.

Ursprung och källa

Anpassad från 'jailbreaking' av mobila enheter; populariserades i AI-kontexten under 2023

Läs mer