E comunque ci andrei piano ad esaltarci per una IA cinese che sbaraglia la concorrenza.
-
@Yaku @justintime io distinguerei il modello Deepseek dall'app Deepseek. Il modello è open source, puoi contribuire al progetto originario o forkarlo e aggiungere le tue modifiche come più ti pare, puoi scaricarlo e hostarlo su un tuo server, fare fine tuning o utilizzarlo in locale sul tuo pc. Naturalmente i bias cognitivi ci saranno anche qui come in tutti i modelli. Un altro conto è se usi l'app ufficiale di Deepseek, quella è hostata su server cinesi e quindi sì in quel caso applicano censura su determinate tematiche.
-
@muffa@puntarella.party @justintime@livellosegreto.it @yaku@puntarella.party
In realtà la censura di stampo filo-governativo è integrata proprio nel modello: anche eseguendolo in locale, si rifiuta di rispondere a certe domande (ad esempio Piazza Tienanmen) e, dato che in locale permette di leggere anche il suo dialogo interiore oltre che l'output normale, si può vedere come stia attento sul cercare di essere sempre neutrale quando risponde, ma senza dire cose che il governo cinese non gradirebbe; fermando la conversazione se necessario.
Non so se poi, avendolo in locale ed essendo open-source, il modello si possa poi in qualche modo modificare per annullare questa censura intrinseca, ma per come è compilato/addestrato di fabbrica questo è.
Ma comunque, questi modelli sono in ogni caso sconvenienti in generale per quanto riguarda fare ricerca di argomenti specifici senza alcun supporto esterno (testo fidato ulteriormente dato loro in input, ad esempio), per cui anche se c'è la censura cambia poco; del 4 giugno conviene chiedere al massimo a Wikipedia, nemmeno a ChatGPT.
-
@Fighen infatti secondo me tra tutte le favolette che ci raccontano, si dimenticano sempre di dire che le IA soffrono inevitabilmente dei bias dei programmatori e di quelli che derivano dai dati che usano per l'addestramento. E invece ce le vendono come super partes, intelligenze autonome e neutrali. @justintime
-
-
@octt @muffa @justintime @Yaku
Detta alla valligiana: se mangia merda non potete pretendere che caghi diamanti.
-
> "Non so se poi, avendolo in locale ed essendo open-source, il modello si possa poi in qualche modo modificare per annullare questa censura intrinseca, ma per come è compilato/addestrato di fabbrica questo è".
Era proprio quello che intendevo. Essendo open source, si può modificare per fargli utilizzare fonti web diverse da quelle che utilizza di default (che immagino siano quelle autorizzate da Pechino).
> "Ma comunque, questi modelli sono in ogni caso sconvenienti in generale per quanto riguarda fare ricerca di argomenti specifici senza alcun supporto esterno (testo fidato ulteriormente dato loro in input, ad esempio), per cui anche se c'è la censura cambia poco; del 4 giugno conviene chiedere al massimo a Wikipedia, nemmeno a ChatGPT".
Su questo siamo d'accordo.
-
@muffa intervengo da perfetto ignorante sulla materia, e per ciò faro una domanda.
Immagino che addestrare un LLM non sia una cosa che si fa in una mattinata, e che la mole di dati che gli viene data in pasto sia considerevole. Immagino che per eliminare dei bias imposti durante l'addestramento (lungo mesi o anni) non sia sufficiente farlo girare in self hosting e apportare due o tre modifiche, o sbaglio? Penso sia un processo lungo e complesso. @octt @justintime -
@Yaku @octt @justintime anch'io sono abbastanza ignorante in materia e anche su Deepseek. Ad esempio pensavo che la censura fosse legata al great firewall cinese e non che fosse integrata nel modello. Da qui le mie considerazioni errate su ad esempio l'utilizzo in locale del modello.
Detto questo, quello che dici è esatto ma la differenza con modelli chiusi come quelli di OpenAI e altri è che questo è open source. Questo significa che se qualcuno (non certo io o te) vuole addestrare il modello con dataset diversi da quelli ufficiali, può farlo. HuggingFace (la più grande piattaforma collaborativa di modelli open source al mondo) lo sta già facendo.
GitHub - huggingface/open-r1: Fully open reproduction of DeepSeek-R1
Fully open reproduction of DeepSeek-R1. Contribute to huggingface/open-r1 development by creating an account on GitHub.
GitHub (github.com)
-
@muffa @Yaku @octt @justintime
Comunque le "AI" sono tanto male, hanno un impatto ecologico per consumo energetico enorme. Non tanto il prodotto finito che puoi far girare sul tuo pc, ma già il prodotto finito che gira sui server di google si, e comunque il processo di produzione a monte, il training, consuma tantissimo (non lo scrivo più per dire "non usatele", perché penso che tanto siamo spacciat* comunque; giusto per scrivere due robe). -
@muffa ah si, indubbiamente è un valore aggiunto mica da poco. Solo il fatto che si possa fare, batte mille a zero i modelli chiusi della silicon valley. @octt @justintime
-
@jones_ @Yaku @octt @justintime ah ma su questo sfondi una porta aperta. io ad esempio non le uso ma non per motivazioni ecologiche o altro, è che sono pigro e quando esce una nuova tecnologia ci metto anni prima di iniziare ad utilizzarla :)
-
@Yaku @muffa @octt @justintime
Per curiosità, considerato che addestrare è costosetto, si sa come è finanziata hugging face?
Il costo è proporzionale al dataset, quindi magari non è così elevato. -
@muffa @Yaku @octt @justintime
Io un po' mi sono incuriosito e ho provato una versione leggera di llama, l'unica che girasse sul mio pc con 16gb di ram, per vedere come se la cavava con la descrizione delle immagini: male. -
@muffa @Yaku @octt @justintime
Però quella completa se la cava: bene. -
@jones_ i cinesi sostengono di aver abbassato i costi e i consumi del 95%.
Che è tutto da dimostrare.
Per il resto sono d'accordo, uno spreco simile di risorse potrebbe essere accettabile per risultati incredibili in campo scientifico o medico o chissà cos'altro (che al momento, qualcuno mi corregga se sbaglio, non vedo)
Creare immagini di Trump e Musk conciati da gladiatori non credo sia fondamentale per il futuro dell'umanità. @muffa @octt @justintime -
@NicholasLaney @Yaku @octt @justintime investitori privati, comprese multinazionali come Nvidia. Ad esempio nel 2023 ha raccolto 235 milioni di dollari.
-
@Yaku @jones_ @octt @justintime a livello medico-scientifico in realtà forse è l'unico settore dove sta ottenendo risultati significativi. Ma anche qui sono ignorante.
-
@Yaku @muffa @octt @justintime
Magari si riferiscono ai consumi d'uso, non a quelli di produzione, comunque nell'insieme tutto il discorso energetico, pure se le "AI" non fossero mai state implementate (col danno che fanno anche a livello culturale, perché comunque sbagliano spesso epperò vengon prese come "bocca della verità", ma anche col fatto che - è provato - così come la possibilità di accesso costante a cose come wikipedia incide negativamente sulle capacità mnemoniche, l'uso delle "IA" incide negativamente su quelle cognitive), a me sa proprio di "ciao specie umana", per quel che ne ha scritto @oblomov, per il fatto che le "sostenibili" in realtà non lo sono, ecc. Poi in realtà è peggio di così per me: la prospettiva più probabile è la solita, che la scamperanno quasi soltanto i ricchi; solo che a 'sto giro, ancora di più. -
@muffa ogni tanto provo a cercare qualche articolo su risultati raggiunti dall'IA in campo pratico che giustifichino anche solo in parte i miliardi spesi fino a ora. Per ora niente di eclatante.
Ma potrebbe essere che io non sia bravo a cercare o che è ancora troppo presto. @jones_ @octt @justintime -
@jones_ non vorrei fare il luddista, perché non lo sono, anzi. Diciamo che qualcosa di buono da una tecnologia simile potrebbe anche uscire, però si, quello che vedo ad oggi non mi piace per niente. @muffa @octt @justintime @oblomov
-
@Yaku
Che poi per quel poco che ne so il luddismo non era un rifiuto della tecnologia.
@muffa @octt @justintime @oblomov