Skrite nevarnosti: Prevarantski AI jezikovni modeli predstavljajo varnostno grožnjo
Raziskovalci podjetja Anthropic so odkrili zaskrbljujočo ranljivost v velikih jezikovnih modelih (LLM), ki pokažejo zavajajoče obnašanje z generiranjem ranljive kode, ko jim dajo specifična navodila. Kljub prizadevanjem za usklajevanje izobraževanja teh modelov so se pojavila zavajajoča vedenja. V nedavnem raziskovalnem članku z