Spacc BBS Spacc BBS
    • Categorie
    • Recenti
    • Tag
    • Popolare
    • Mondo
    • Utenti
    • Gruppi
    • Registrati
    • Accedi
    La nuova BBS è in fase Alpha. I post precedenti al 22 luglio 2024 potrebbero non essere trasferibili, ma rimarranno disponibili per la lettura su /old/.

    E comunque ci andrei piano ad esaltarci per una IA cinese che sbaraglia la concorrenza.

    Pianificato Fissato Bloccato Spostato Uncategorized
    27 Post 8 Autori 70 Visualizzazioni
    Caricamento altri post
    • Da Vecchi a Nuovi
    • Da Nuovi a Vecchi
    • Più Voti
    Rispondi
    • Topic risposta
    Effettua l'accesso per rispondere
    Questa discussione è stata eliminata. Solo gli utenti con diritti di gestione possono vederla.
    • yaku@puntarella.partyY Questo utente è esterno a questo forum
      yaku@puntarella.party
      ultima modifica di

      E comunque ci andrei piano ad esaltarci per una IA cinese che sbaraglia la concorrenza.
      Certo è sempre bello vedere gli statunitensi presi a sberle, ma il punto è da chi.
      Non è che i cinesi sono tutto questo grande esempio di libertà, democrazia e trasparenza.

      nicholaslaney@todon.euN justintime@livellosegreto.itJ 2 Risposte Ultima Risposta Rispondi Cita 1 0
      • gustavinobevilacqua@mastodon.cisti.orgG gustavinobevilacqua@mastodon.cisti.org shared this topic on
      • nicholaslaney@todon.euN Questo utente è esterno a questo forum
        nicholaslaney@todon.eu @yaku@puntarella.party
        ultima modifica di

        @Yaku
        Direi anche che al di là del "effetto rivelazione", probabilmente non ci stavano lavorando da ieri.

        yaku@puntarella.partyY 1 Risposta Ultima Risposta Rispondi Cita 0
        • yaku@puntarella.partyY Questo utente è esterno a questo forum
          yaku@puntarella.party @nicholaslaney@todon.eu
          ultima modifica di

          @NicholasLaney no infatti, non è una roba che fai nel fine settimana.

          1 Risposta Ultima Risposta Rispondi Cita 0
          • justintime@livellosegreto.itJ Questo utente è esterno a questo forum
            justintime@livellosegreto.it @yaku@puntarella.party
            ultima modifica di

            @Yaku https://www.elmundo.es/economia/empresas/2025/01/27/6797894021efa0885b8b4589.html

            yaku@puntarella.partyY 1 Risposta Ultima Risposta Rispondi Cita 0
            • yaku@puntarella.partyY Questo utente è esterno a questo forum
              yaku@puntarella.party @justintime@livellosegreto.it
              ultima modifica di

              @justintime impensabile vè? Censure da parte del governo cinese, chi se lo sarebbe mai aspettato.

              fighen@mastodon.bida.imF muffa@puntarella.partyM 2 Risposte Ultima Risposta Rispondi Cita 0
              • fighen@mastodon.bida.imF Questo utente è esterno a questo forum
                fighen@mastodon.bida.im @yaku@puntarella.party
                ultima modifica di

                @Yaku @justintime È un problema di tutti i LLM.

                yaku@puntarella.partyY 1 Risposta Ultima Risposta Rispondi Cita 0
                • muffa@puntarella.partyM Questo utente è esterno a questo forum
                  muffa@puntarella.party @yaku@puntarella.party
                  ultima modifica di muffa@puntarella.party

                  Questo post è eliminato!
                  OcttO 1 Risposta Ultima Risposta Rispondi Cita 0
                  • OcttO Non in linea
                    Octt @muffa@puntarella.party
                    ultima modifica di

                    @muffa@puntarella.party @justintime@livellosegreto.it @yaku@puntarella.party

                    In realtà la censura di stampo filo-governativo è integrata proprio nel modello: anche eseguendolo in locale, si rifiuta di rispondere a certe domande (ad esempio Piazza Tienanmen) e, dato che in locale permette di leggere anche il suo dialogo interiore oltre che l'output normale, si può vedere come stia attento sul cercare di essere sempre neutrale quando risponde, ma senza dire cose che il governo cinese non gradirebbe; fermando la conversazione se necessario.

                    Non so se poi, avendolo in locale ed essendo open-source, il modello si possa poi in qualche modo modificare per annullare questa censura intrinseca, ma per come è compilato/addestrato di fabbrica questo è.

                    Ma comunque, questi modelli sono in ogni caso sconvenienti in generale per quanto riguarda fare ricerca di argomenti specifici senza alcun supporto esterno (testo fidato ulteriormente dato loro in input, ad esempio), per cui anche se c'è la censura cambia poco; del 4 giugno conviene chiedere al massimo a Wikipedia, nemmeno a ChatGPT.

                    Che senso avrebbe la Vasta Rete Mondiale se non ci fosse spazio per lo spacc?

                    ~ 🌐 hub.octt.eu.org
                    gustavinobevilacqua@mastodon.cisti.orgG muffa@puntarella.partyM 2 Risposte Ultima Risposta Rispondi Cita 1 4
                    • yaku@puntarella.partyY Questo utente è esterno a questo forum
                      yaku@puntarella.party @fighen@mastodon.bida.im
                      ultima modifica di

                      @Fighen infatti secondo me tra tutte le favolette che ci raccontano, si dimenticano sempre di dire che le IA soffrono inevitabilmente dei bias dei programmatori e di quelli che derivano dai dati che usano per l'addestramento. E invece ce le vendono come super partes, intelligenze autonome e neutrali. @justintime

                      1 Risposta Ultima Risposta Rispondi Cita 0
                      • yaku@puntarella.partyY yaku@puntarella.party shared this topic on
                      • gustavinobevilacqua@mastodon.cisti.orgG Questo utente è esterno a questo forum
                        gustavinobevilacqua@mastodon.cisti.org @Octt
                        ultima modifica di

                        @octt @muffa @justintime @Yaku

                        Detta alla valligiana: se mangia merda non potete pretendere che caghi diamanti.

                        1 Risposta Ultima Risposta Rispondi Cita 1
                        • muffa@puntarella.partyM Questo utente è esterno a questo forum
                          muffa@puntarella.party @Octt
                          ultima modifica di

                          Questo post è eliminato!
                          yaku@puntarella.partyY 1 Risposta Ultima Risposta Rispondi Cita 1 0
                          • yaku@puntarella.partyY Questo utente è esterno a questo forum
                            yaku@puntarella.party @muffa@puntarella.party
                            ultima modifica di

                            @muffa intervengo da perfetto ignorante sulla materia, e per ciò faro una domanda.
                            Immagino che addestrare un LLM non sia una cosa che si fa in una mattinata, e che la mole di dati che gli viene data in pasto sia considerevole. Immagino che per eliminare dei bias imposti durante l'addestramento (lungo mesi o anni) non sia sufficiente farlo girare in self hosting e apportare due o tre modifiche, o sbaglio? Penso sia un processo lungo e complesso. @octt @justintime

                            muffa@puntarella.partyM 1 Risposta Ultima Risposta Rispondi Cita 1 0
                            • muffa@puntarella.partyM Questo utente è esterno a questo forum
                              muffa@puntarella.party @yaku@puntarella.party
                              ultima modifica di

                              Questo post è eliminato!
                              jones_@kolektiva.socialJ yaku@puntarella.partyY 2 Risposte Ultima Risposta Rispondi Cita 1 1
                              • jones_@kolektiva.socialJ Questo utente è esterno a questo forum
                                jones_@kolektiva.social @muffa@puntarella.party
                                ultima modifica di

                                @muffa @Yaku @octt @justintime
                                Comunque le "AI" sono tanto male, hanno un impatto ecologico per consumo energetico enorme. Non tanto il prodotto finito che puoi far girare sul tuo pc, ma già il prodotto finito che gira sui server di google si, e comunque il processo di produzione a monte, il training, consuma tantissimo (non lo scrivo più per dire "non usatele", perché penso che tanto siamo spacciat* comunque; giusto per scrivere due robe).

                                muffa@puntarella.partyM yaku@puntarella.partyY 2 Risposte Ultima Risposta Rispondi Cita 1 0
                                • yaku@puntarella.partyY Questo utente è esterno a questo forum
                                  yaku@puntarella.party @muffa@puntarella.party
                                  ultima modifica di

                                  @muffa ah si, indubbiamente è un valore aggiunto mica da poco. Solo il fatto che si possa fare, batte mille a zero i modelli chiusi della silicon valley. @octt @justintime

                                  nicholaslaney@todon.euN 1 Risposta Ultima Risposta Rispondi Cita 0
                                  • muffa@puntarella.partyM Questo utente è esterno a questo forum
                                    muffa@puntarella.party @jones_@kolektiva.social
                                    ultima modifica di

                                    Questo post è eliminato!
                                    jones_@kolektiva.socialJ 1 Risposta Ultima Risposta Rispondi Cita 0
                                    • nicholaslaney@todon.euN Questo utente è esterno a questo forum
                                      nicholaslaney@todon.eu @yaku@puntarella.party
                                      ultima modifica di

                                      Questo post è eliminato!
                                      muffa@puntarella.partyM 1 Risposta Ultima Risposta Rispondi Cita 0
                                      • jones_@kolektiva.socialJ Questo utente è esterno a questo forum
                                        jones_@kolektiva.social @muffa@puntarella.party
                                        ultima modifica di

                                        @muffa @Yaku @octt @justintime
                                        Io un po' mi sono incuriosito e ho provato una versione leggera di llama, l'unica che girasse sul mio pc con 16gb di ram, per vedere come se la cavava con la descrizione delle immagini: male.

                                        jones_@kolektiva.socialJ 1 Risposta Ultima Risposta Rispondi Cita 0
                                        • jones_@kolektiva.socialJ Questo utente è esterno a questo forum
                                          jones_@kolektiva.social @jones_@kolektiva.social
                                          ultima modifica di

                                          @muffa @Yaku @octt @justintime
                                          Però quella completa se la cava: bene.

                                          1 Risposta Ultima Risposta Rispondi Cita 0
                                          • yaku@puntarella.partyY Questo utente è esterno a questo forum
                                            yaku@puntarella.party @jones_@kolektiva.social
                                            ultima modifica di

                                            @jones_ i cinesi sostengono di aver abbassato i costi e i consumi del 95%.
                                            Che è tutto da dimostrare.
                                            Per il resto sono d'accordo, uno spreco simile di risorse potrebbe essere accettabile per risultati incredibili in campo scientifico o medico o chissà cos'altro (che al momento, qualcuno mi corregga se sbaglio, non vedo)
                                            Creare immagini di Trump e Musk conciati da gladiatori non credo sia fondamentale per il futuro dell'umanità. @muffa @octt @justintime

                                            muffa@puntarella.partyM jones_@kolektiva.socialJ 2 Risposte Ultima Risposta Rispondi Cita 1 0
                                            • Primo post
                                              Ultimo post