E comunque ci andrei piano ad esaltarci per una IA cinese che sbaraglia la concorrenza.
-
@Yaku @octt @justintime anch'io sono abbastanza ignorante in materia e anche su Deepseek. Ad esempio pensavo che la censura fosse legata al great firewall cinese e non che fosse integrata nel modello. Da qui le mie considerazioni errate su ad esempio l'utilizzo in locale del modello.
Detto questo, quello che dici è esatto ma la differenza con modelli chiusi come quelli di OpenAI e altri è che questo è open source. Questo significa che se qualcuno (non certo io o te) vuole addestrare il modello con dataset diversi da quelli ufficiali, può farlo. HuggingFace (la più grande piattaforma collaborativa di modelli open source al mondo) lo sta già facendo.
GitHub - huggingface/open-r1: Fully open reproduction of DeepSeek-R1
Fully open reproduction of DeepSeek-R1. Contribute to huggingface/open-r1 development by creating an account on GitHub.
GitHub (github.com)
-
@muffa @Yaku @octt @justintime
Comunque le "AI" sono tanto male, hanno un impatto ecologico per consumo energetico enorme. Non tanto il prodotto finito che puoi far girare sul tuo pc, ma già il prodotto finito che gira sui server di google si, e comunque il processo di produzione a monte, il training, consuma tantissimo (non lo scrivo più per dire "non usatele", perché penso che tanto siamo spacciat* comunque; giusto per scrivere due robe). -
@muffa ah si, indubbiamente è un valore aggiunto mica da poco. Solo il fatto che si possa fare, batte mille a zero i modelli chiusi della silicon valley. @octt @justintime
-
@jones_ @Yaku @octt @justintime ah ma su questo sfondi una porta aperta. io ad esempio non le uso ma non per motivazioni ecologiche o altro, è che sono pigro e quando esce una nuova tecnologia ci metto anni prima di iniziare ad utilizzarla :)
-
@Yaku @muffa @octt @justintime
Per curiosità, considerato che addestrare è costosetto, si sa come è finanziata hugging face?
Il costo è proporzionale al dataset, quindi magari non è così elevato. -
@muffa @Yaku @octt @justintime
Io un po' mi sono incuriosito e ho provato una versione leggera di llama, l'unica che girasse sul mio pc con 16gb di ram, per vedere come se la cavava con la descrizione delle immagini: male. -
@muffa @Yaku @octt @justintime
Però quella completa se la cava: bene. -
@jones_ i cinesi sostengono di aver abbassato i costi e i consumi del 95%.
Che è tutto da dimostrare.
Per il resto sono d'accordo, uno spreco simile di risorse potrebbe essere accettabile per risultati incredibili in campo scientifico o medico o chissà cos'altro (che al momento, qualcuno mi corregga se sbaglio, non vedo)
Creare immagini di Trump e Musk conciati da gladiatori non credo sia fondamentale per il futuro dell'umanità. @muffa @octt @justintime -
@NicholasLaney @Yaku @octt @justintime investitori privati, comprese multinazionali come Nvidia. Ad esempio nel 2023 ha raccolto 235 milioni di dollari.
-
@Yaku @jones_ @octt @justintime a livello medico-scientifico in realtà forse è l'unico settore dove sta ottenendo risultati significativi. Ma anche qui sono ignorante.
-
@Yaku @muffa @octt @justintime
Magari si riferiscono ai consumi d'uso, non a quelli di produzione, comunque nell'insieme tutto il discorso energetico, pure se le "AI" non fossero mai state implementate (col danno che fanno anche a livello culturale, perché comunque sbagliano spesso epperò vengon prese come "bocca della verità", ma anche col fatto che - è provato - così come la possibilità di accesso costante a cose come wikipedia incide negativamente sulle capacità mnemoniche, l'uso delle "IA" incide negativamente su quelle cognitive), a me sa proprio di "ciao specie umana", per quel che ne ha scritto @oblomov, per il fatto che le "sostenibili" in realtà non lo sono, ecc. Poi in realtà è peggio di così per me: la prospettiva più probabile è la solita, che la scamperanno quasi soltanto i ricchi; solo che a 'sto giro, ancora di più. -
@muffa ogni tanto provo a cercare qualche articolo su risultati raggiunti dall'IA in campo pratico che giustifichino anche solo in parte i miliardi spesi fino a ora. Per ora niente di eclatante.
Ma potrebbe essere che io non sia bravo a cercare o che è ancora troppo presto. @jones_ @octt @justintime -
@jones_ non vorrei fare il luddista, perché non lo sono, anzi. Diciamo che qualcosa di buono da una tecnologia simile potrebbe anche uscire, però si, quello che vedo ad oggi non mi piace per niente. @muffa @octt @justintime @oblomov
-
@Yaku
Che poi per quel poco che ne so il luddismo non era un rifiuto della tecnologia.
@muffa @octt @justintime @oblomov -
@jones_
Non proprio, esatto, ma spero si sia capito il senso.
@muffa @octt @justintime @oblomov