Come funziona il Data Poisoning dei modelli ML in 5 minuti
L’avvelenamento dei dati di formazione sugli LLM si occupa dell’iniezione di dati velenosi durante la fase di formazione. In questo articolo ci concentreremo sugli scenari di attacco, sui precedenti attacchi riusciti e sui meccanismi di prevenzione insieme a buoni esempi.
@informapirata @aitech uno dei suggerimenti per migliorare la sicurezza riportati nell’articolo, è ‘leak as little information as possible’ sul funzionamento del LLM.
La sicurezza tramite opacità si è già dimostrata fallimentare, ma a quanto pare, alcune cattive abitudini sono dure a morire…