La nuova BBS è in fase Alpha. I post precedenti al 22 luglio 2024 potrebbero non essere trasferibili, ma rimarranno disponibili per la lettura su /old/.
Bastano 250 file manipolati intenzionalmente per sabotare il processo educativo di un'#intelligenza #artificiale.
-
Bastano 250 file manipolati intenzionalmente per sabotare il processo educativo di un'#intelligenza #artificiale. Da dove cominciamo?
-
@thatgiga
I post di salveeni come li vedi?

-
@ALFA VELENO
-
G gustavinobevilacqua@mastodon.cisti.org shared this topic
-
M macfranc@poliversity.it shared this topic
-
@thatgiga è una notizia che hai letto da qualche parte? uno studio? hai un link?
Devo dire che non mi sorprende affatto... l'hackerabilità di un LLM oggi è paragonabile a quella della mente di un bambino -
@macfranc ne scrivevano stamani alcune testate, questo è il link di Repubblica
https://www.repubblica.it/tecnologia/2025/10/13/news/anthropic_studio_avvelenare_ia_quanti_documenti_servono-424909610/ -
@thatgiga grazie! Ho trovato la fonte (senza paywall)
A small number of samples can poison LLMs of any size
Anthropic research on data-poisoning attacks in large language models
(www.anthropic.com)