Spacc BBS Spacc BBS
    • Categorie
    • Recenti
    • Tag
    • Popolare
    • Mondo
    • Utenti
    • Gruppi
    • Registrati
    • Accedi
    La nuova BBS è in fase Alpha. I post precedenti al 22 luglio 2024 potrebbero non essere trasferibili, ma rimarranno disponibili per la lettura su /old/.

    Il più grande studio del suo genere dimostra che gli assistenti AI travisano i contenuti delle notizie nel 45% dei casi, indipendentemente dalla lingua o dal territorio

    Pianificato Fissato Bloccato Spostato Uncategorized
    5 Post 3 Autori 7 Visualizzazioni
    Caricamento altri post
    • Da Vecchi a Nuovi
    • Da Nuovi a Vecchi
    • Più Voti
    Rispondi
    • Topic risposta
    Effettua l'accesso per rispondere
    Questa discussione è stata eliminata. Solo gli utenti con diritti di gestione possono vederla.
    • macfranc@poliversity.itM Questo utente è esterno a questo forum
      macfranc@poliversity.it
      ultima modifica di

      Il più grande studio del suo genere dimostra che gli assistenti AI travisano i contenuti delle notizie nel 45% dei casi, indipendentemente dalla lingua o dal territorio

      Una nuova ricerca coordinata dall'Unione europea di radiodiffusione (EBU) e guidata dalla BBC ha scoperto che gli assistenti AI, già un portale informativo quotidiano per milioni di persone, travisano sistematicamente i contenuti delle notizie, indipendentemente dalla lingua, dal territorio o dalla piattaforma AI testata.

      L'intenso studio internazionale, di portata e portata senza precedenti, è stato lanciato durante l'Assemblea Stampa dell'EBU a Napoli. Coinvolgendo 22 organizzazioni di media di servizio pubblico (PSM) in 18 paesi, che lavorano in 14 lingue, ha individuato molteplici problematiche sistemiche in quattro dei principali strumenti di intelligenza artificiale.

      Leggi il report sull'integrità degli assistenti AI
      Leggi il toolkit Integrity in AI Assistants News

      https://www.bbc.co.uk/mediacentre/2025/new-ebu-research-ai-assistants-news-content

      @aitech

      giacomo@snac.tesio.itG 1 Risposta Ultima Risposta Rispondi Cita 0
      • giacomo@snac.tesio.itG Questo utente è esterno a questo forum
        giacomo@snac.tesio.it @macfranc@poliversity.it
        ultima modifica di

        @macfranc@poliversity.it

        Sarò noioso, ma la triste notizia è che sia una notizia.

        È OVVIO che non comprendono le notizie! Mica sanno leggere!

        Sanno solo produrre sequenze si lettere statisticamente correlate con le sequenze di caratteri presenti nell'input (prompt + contenuti allegati) all'interno del sorgente (il corpus di testi utilizzati per programmare statisticamente il #LLM).

        Il loro output non ha alcun significato, sebbene sia ottimizzato per passare il test di Turing ingannando l'utente e spingendolo ad attribuirgli un significato.


        @aitech@feddit.it
        1 Risposta Ultima Risposta Rispondi Cita 1 0
        • macfranc@poliversity.itM macfranc@poliversity.it shared this topic on
        • macfranc@poliversity.itM Questo utente è esterno a questo forum
          macfranc@poliversity.it
          ultima modifica di

          @giacomo certamente, questo lo sanno tutti... Tutti quelli che appartengono a una ristretta minoranza di persone che hanno ha avuto la fortuna di avere l'opportunità di informarsi e che dispongono di tempo, istruzione e capacità per capire ciò di cui si sono informati.

          Il fatto che i dati di questa ricerca siano banali, non riduce L'importanza di una grande ricerca a tappeto che possa essere ritenuta credibile dalla maggior parte del pubblico.

          Perché il problema più grave è che la maggior parte del pubblico non comprende queste implicazioni. La maggior parte delle persone ragiona come un fumatore che pensa sempre al proprio tumore come ha una eventualità improbabile e quando sente dire che l'intelligenza artificiale può travisare i contenuti, pensa semplicemente al fatto che "certamente, ogni tanto può sbagliare; ma lo fa raramente ed è improbabile che lo faccia proprio con me"

          @aitech

          giacomo@snac.tesio.itG T 2 Risposte Ultima Risposta Rispondi Cita 0
          • giacomo@snac.tesio.itG Questo utente è esterno a questo forum
            giacomo@snac.tesio.it @macfranc@poliversity.it
            ultima modifica di

            @macfranc@poliversity.it

            Infatti se ci fai caso non ho negato che sia una notizia, ma sottolineato quanto sia triste che lo sia!

            Idem per i programmatori che, usando LLM per scrivere codice, dimostrano la propria inconsapevole incompetenza...

            @aitech@feddit.it
            1 Risposta Ultima Risposta Rispondi Cita 1 0
            • T Questo utente è esterno a questo forum
              talksina@mastodon.uno @macfranc@poliversity.it
              ultima modifica di

              @macfranc @aitech @giacomo "probabile che succeda, ma non a me". Già sentita, questa storia. Settimana scorsa seguivo un video di Matteo Flora sul suo canale "ciao internet" e parlava proprio di questo: i modelli generativi sono fatti apposta per allucinare e non verranno corretti, insomma il "non lo so" non è pervenuto.

              1 Risposta Ultima Risposta Rispondi Cita 1 0
              • Primo post
                Ultimo post