Spacc BBS Spacc BBS
    • Categorie
    • Recenti
    • Tag
    • Popolare
    • Mondo
    • Utenti
    • Gruppi
    • Registrati
    • Accedi
    La nuova BBS è in fase Alpha. I post precedenti al 22 luglio 2024 potrebbero non essere trasferibili, ma rimarranno disponibili per la lettura su /old/.

    Un piccolo numero di campioni può avvelenare LLM di qualsiasi dimensione**

    Pianificato Fissato Bloccato Spostato Uncategorized
    1 Post 1 Autori 0 Visualizzazioni
    Caricamento altri post
    • Da Vecchi a Nuovi
    • Da Nuovi a Vecchi
    • Più Voti
    Rispondi
    • Topic risposta
    Effettua l'accesso per rispondere
    Questa discussione è stata eliminata. Solo gli utenti con diritti di gestione possono vederla.
    • macfranc@poliversity.itM Questo utente è esterno a questo forum
      macfranc@poliversity.it
      ultima modifica di

      Un piccolo numero di campioni può avvelenare LLM di qualsiasi dimensione**

      In uno studio congiunto con l'AI Security Institute del Regno Unito e l'Alan Turing Institute, abbiamo scoperto che anche solo 250 documenti dannosi possono produrre una vulnerabilità "backdoor" in un modello linguistico di grandi dimensioni, indipendentemente dalle dimensioni del modello o dal volume dei dati di addestramento. Sebbene un modello con 13 miliardi di parametri venga addestrato su oltre 20 volte più dati di addestramento rispetto a un modello con 600 miliardi di parametri, entrambi possono essere colpiti da una backdoor tramite lo stesso numero limitato di documenti contaminati. I nostri risultati mettono in discussione l'ipotesi comune secondo cui gli aggressori debbano controllare una percentuale dei dati di addestramento; in realtà, potrebbero averne bisogno solo di una piccola quantità fissa. Il nostro studio si concentra su una backdoor ristretta (che produce testo incomprensibile) che difficilmente presenta rischi significativi nei modelli di frontiera. Ciononostante, condividiamo questi risultati per dimostrare che gli attacchi di data poisoning potrebbero essere più pratici di quanto si creda e per incoraggiare ulteriori ricerche sul data poisoning e sulle potenziali difese contro di esso.

      https://www.anthropic.com/research/small-samples-poison

      La notizia ha un mese, ma ci era sfuggita: grazie a @thatgiga per la segnalazione

      @aitech

      1 Risposta Ultima Risposta Rispondi Cita 0
      • Primo post
        Ultimo post