Salta al contenuto principale

RSI

Podcast RSI – Microsoft accusata di leggere i documenti degli utenti di Word per addestrare la sua IA: i fatti fin qui

Questo è il testo della puntata del 25 novembre 2024 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS.


[CLIP: brano della versione italiana della sigla iniziale della serie TV Il Prigioniero]

Sta circolando un’accusa pesante che riguarda il popolarissimo software Word di Microsoft: userebbe i testi scritti dagli utenti per addestrare l’intelligenza artificiale dell’azienda. Se l’accusa fosse confermata, le implicazioni in termini di privacy, confidenzialità e diritto d’autore sarebbero estremamente serie.

Questa è la storia di quest’accusa, dei dati che fin qui la avvalorano, e di come eventualmente rimediare. Benvenuti alla puntata del 25 novembre 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Le intelligenze artificiali hanno bisogno di dati sui quali addestrarsi. Tanti, tanti dati: più ne hanno, più diventano capaci di fornire risposte utili. Un’intelligenza artificiale che elabora testi, per esempio, deve acquisire non miliardi, ma migliaia di miliardi di parole per funzionare decentemente.

Procurarsi così tanto testo non è facile, e quindi le aziende che sviluppano intelligenze artificiali pescano dove possono: non solo libri digitalizzati ma anche pagine Web, articoli di Wikipedia, post sui social network. E ancora non basta. Secondo le indagini del New York Times [link diretto con paywall; copia su Archive.is], OpenAI, l’azienda che sviluppa ChatGPT, aveva già esaurito nel 2021 ogni fonte di testo in inglese pubblicamente disponibile su Internet.

Per sfamare l’appetito incontenibile della sua intelligenza artificiale, OpenAI ha creato uno strumento di riconoscimento vocale, chiamato Whisper, che trascriveva il parlato dei video di YouTube e quindi produceva nuovi testi sui quali continuare ad addestrare ChatGPT. Whisper ha trascritto oltre un milione di ore di video di YouTube, e dall’addestramento basato su quei testi è nato ChatGPT 4.

Questa stessa trascrizione di massa l’ha fatta anche Google, che inoltre ha cambiato le proprie condizioni di servizio per poter acquisire anche i contenuti dei documenti pubblici scritti su Google Docs, le recensioni dei ristoranti di Google Maps, e altro ancora [New York Times].

Da parte sua, Meta ha avvisato noi utenti che da giugno di quest’anno usa tutto quello che scriviamo pubblicamente su Facebook e Instagram per l’addestramento delle sue intelligenze artificiali, a meno che ciascuno di noi non presenti formale opposizione, come ho raccontato nella puntata del 7 giugno 2024.

Insomma, la fame di dati delle intelligenze artificiali non si placa, e le grandi aziende del settore sono disposte a compromessi legalmente discutibili pur di poter mettere le mani sui dati che servono. Per esempio, la legalità di usare massicciamente i contenuti creati dagli YouTuber senza alcun compenso o riconoscimento è perlomeno controversa. Microsoft e OpenAI sono state portate in tribunale negli Stati Uniti con l’accusa di aver addestrato il loro strumento di intelligenza artificiale Copilot usando milioni di righe di codice di programmazione pubblicate sulla piattaforma GitHub senza il consenso dei creatori di quelle righe di codice e violando la licenza open source adottata da quei creatori [Vice.com].

In parole povere, il boom dell’intelligenza artificiale che stiamo vivendo, e i profitti stratosferici di alcune aziende del settore, si basano in gran parte su un saccheggio senza precedenti della fatica di qualcun altro. E quel qualcun altro, spesso, siamo noi.

In questo scenario è arrivata un’accusa molto specifica che, se confermata, rischia di toccarci molto da vicino. L’accusa è che se scriviamo un testo usando Word di Microsoft, quel testo può essere letto e usato per addestrare le intelligenze artificiali dell’azienda.

Questo vorrebbe dire che qualunque lettera confidenziale, referto medico, articolo di giornale, documentazione aziendale riservata, pubblicazione scientifica sotto embargo sarebbe a rischio di essere ingerita nel ventre senza fondo delle IA, dal quale si è già visto che può essere poi rigurgitata, per errore o per dolo, rendendo pubblici i nostri dati riservati, tant’è vero che il già citato New York Times è in causa con OpenAI e con Microsoft perché nei testi generati da ChatGPT e da Copilot compaiono interi blocchi di testi di articoli della testata, ricopiati pari pari [Harvard Law Review].

Vediamo su cosa si basa quest’accusa.


Il 13 novembre scorso il sito Ilona-andrews.com, gestito da una coppia di scrittori, ha segnalato un problema con la funzione Esperienze connesse di Microsoft Word [Connected Experiences nella versione inglese]. Se non avete mai sentito parlare di questa funzione, siete in ottima e ampia compagnia: è sepolta in una parte poco frequentata della fitta foresta di menu e sottomenu di Word. Nell’articolo che accompagna questo podcast sul sito Attivissimo.me trovate il percorso dettagliato da seguire per trovarla, per Windows e per Mac.

  • Word per Windows (applicazione): File – Opzioni – Centro protezione – Impostazioni Centro protezione – Opzioni della privacy – Impostazioni di privacy – Dati di diagnostica facoltativi [in inglese: File – Options – Trust Center – Trust Center Settings – Privacy Options – Privacy Settings – Optional Connected Experiences]
  • Word per Mac (applicazione): Word – Preferenze – Privacy – Gestisci le esperienze connesse [in inglese: Word – Preferences – Privacy – Manage Connected Experiences]
  • Word su Web: File – Informazioni – Impostazioni privacy
Screenshot da Word per Mac italiano.
Screenshot da Word su web in italiano.

Secondo questa segnalazione di Ilona-andrews.com, ripresa e approfondita anche da Casey Lawrence su Medium.com, Microsoft avrebbe attivato senza troppo clamore in Office questa funzione, che leggerebbe i documenti degli utenti allo scopo di addestrare le sue intelligenze artificiali. Questa funzione è di tipo opt-out, ossia viene attivata automaticamente a meno che l’utente richieda esplicitamente la sua disattivazione.

L’informativa sulla privacy di Microsoft collegata a questa funzione dice testualmente che i dati personali raccolti da Microsoft vengono utilizzati, fra le altre cose, anche per “Pubblicizzare e comunicare offerte all’utente, tra cui inviare comunicazioni promozionali, materiale pubblicitario mirato e presentazioni di offerte pertinenti.” Traduzione: ti bombarderemo di pubblicità sulla base delle cose che scrivi usando Word. E già questo, che è un dato di fatto dichiarato da Microsoft, non è particolarmente gradevole.

Screenshot tratto dall’informativa sulla privacy di Microsoft.

Ma c’è anche un altro passaggio dell’informativa sulla privacy di Microsoft che è molto significativo: “Nell’ambito del nostro impegno per migliorare e sviluppare i nostri prodotti” diceMicrosoft può usare i dati dell’utente per sviluppare ed eseguire il training dei modelli di intelligenza artificiale”.

Sembra abbastanza inequivocabile, ma bisogna capire cosa intende Microsoft con l’espressione “dati dell’utente. Se include i documenti scritti con Word, allora l’accusa è concreta; se invece non li include, ma comprende per esempio le conversazioni fatte con Copilot, allora il problema c’è lo stesso ed è serio ma non così catastroficamente grave come può parere a prima vista.

Secondo un’altra pagina informativa di Microsoft, l’azienda dichiara esplicitamente di usare le “conversazioni testuali e a voce fatte con Copilot”*, con alcune eccezioni: sono esclusi per esempio gli utenti autenticati che hanno meno di 18 anni, i clienti commerciali di Microsoft, e gli utenti europei (Svizzera e Regno Unito compresi).**

* “Except for certain categories of users (see below) or users who have opted out, Microsoft uses data from Bing, MSN, Copilot, and interactions with ads on Microsoft for AI training. This includes anonymous search and news data, interactions with ads, and your voice and text conversations with Copilot [...]”
** “Users in certain countries including: Austria, Belgium, Brazil, Bulgaria, Canada, China, Croatia, Cyprus, the Czech Republic, Denmark, Estonia, Finland, France, Germany, Greece, Hungary, Iceland, Ireland, Israel, Italy, Latvia, Liechtenstein, Lithuania, Luxembourg, Malta, the Netherlands, Norway, Nigeria, Poland, Portugal, Romania, Slovakia, Slovenia, South Korea, Spain, Sweden, Switzerland, the United Kingdom, and Vietnam. This includes the regions of Guadeloupe, French Guiana, Martinique, Mayotte, Reunion Island, Saint-Martin, Azores, Madeira, and the Canary Islands.”

Nella stessa pagina, Microsoft dichiara inoltre che non addestra i propri modelli di intelligenza artificiale sui dati personali presenti nei profili degli account Microsoft o sul contenuto delle mail, e aggiunge che se le conversazioni fatte con l’intelligenza artificiale dell’azienda includono delle immagini, Microsoft rimuove i metadati e gli altri dati personali e sfuoca i volti delle persone raffigurate in quelle immagini. Inoltre rimuove anche i dati che potrebbero rendere identificabile l’utente, come nomi, numeri di telefono, identificativi di dispositivi o account, indirizzi postali e indirizzi di mail, prima di addestrare le proprie intelligenze artificiali.

Secondo le indagini di Medium.com, inoltre, le Esperienze connesse sono attivate per impostazione predefinitaper gli utenti privati, mentre sono automaticamente disattivate per gli utenti delle aziende che usano la crittografia DKE per proteggere file e mail.


In sintesi, la tesi che Microsoft si legga i documenti Word scritti da noi non è confermata per ora da prove concrete, ma di certo l’azienda ammette di usare le interazioni con la sua intelligenza artificiale a scopo pubblicitario, e già questo è piuttosto irritante. Scoprire come si fa per disattivare questo comportamento e a chi si applica è sicuramente un bonus piacevole e un risultato utile di questo allarme.

Ma visto che gli errori possono capitare, visto che i dati teoricamente anonimizzati si possono a volte deanonimizzare, e visto che le aziende spesso cambiano le proprie condizioni d’uso molto discretamente, è comunque opportuno valutare se queste Esperienze connesse vi servono davvero ed è prudente disattivarle se non avete motivo di usarle, naturalmente dopo aver sentito gli addetti ai servizi informatici se lavorate in un’organizzazione. Le istruzioni dettagliate, anche in questo caso, sono su Attivissimo.me.

E se proprio non vi fidate delle dichiarazioni delle aziende e volete stare lontani da questa febbre universale che spinge a infilare dappertutto l’intelligenza artificiale e la raccolta di dati personali, ci sono sempre prodotti alternativi a Word ed Excel, come LibreOffice, che non raccolgono assolutamente nulla e non vogliono avere niente a che fare con l’intelligenza artificiale.

Il problema di fondo, però, rimane: le grandi aziende hanno una disperata fame di dati per le loro intelligenze artificiali, e quindi continueranno a fare di tutto per acquisirli. Ad aprile 2023 Meta, che possiede Facebook, Instagram e WhatsApp, ha addirittura valutato seriamente l’idea di comperare in blocco la grande casa editrice statunitense Simon & Schuster pur di poter accedere ai contenuti testuali di alta qualità costituiti dal suo immenso catalogo di libri sui quali ha i diritti [New York Times].

OpenAI, invece, sta valutando un’altra soluzione: addestrare le intelligenze artificiali usando contenuti generati da altre intelligenze artificiali. In altre parole, su dati sintetici. Poi non sorprendiamoci se queste tecnologie restituiscono spesso dei risultati che non c’entrano nulla con la realtà. Utente avvisato, mezzo salvato.

Fonti aggiuntive

ChatGPT collected our data without permission and is going to make billions off it, Scroll.in (2023)
Panoramica delle esperienze connesse facoltative in Office (versione 30/10/2024)

Niente Panico RSI – Puntata del 2024/11/25

Lunedì scorso alle 9 è andata in onda una nuova puntata in diretta di Niente Panico, il programma che conduco insieme a Rosy Nervi sulla Rete Tre della Radiotelevisione Svizzera. La trasmissione è riascoltabile qui su RSI.ch oppure nell’embed che trovate qui sotto, ed è anche scaricabile.

I temi della puntata

L’account Instagram della settimana: @craaftcorner, ossia come fare pacchettini di Natale elegantissimi con materiali e tecniche semplici.


La bufala della settimana: Vietato guidare indossando occhiali da sole in Italia? No, falso allarme diffuso su TikTok per acchiappare clic e like (tratto da Bufale.net).


La donna ricordata/dimenticata dalla scienza: Cecilia Payne Gaposchkin (1900-1979), l’astrofisica che dimostrò che il Sole non era composto di ferro ma era per la maggior parte idrogeno, e che nel 1925 fu la prima persona a ottenere un dottorato in astronomia ad Harvard e nel 1956 divenne la prima donna nominata capo del dipartimento di astronomia di Harvard.


Notizia della settimana: Un giovane italiano su tre non è in grado di comprendere correttamente se un’informazione online sia davvero affidabile, secondo il report «Disinformazione a Scuola» realizzato da un team di ricerca guidato da Carlo Martini dell’Università Vita-Salute San Raffaele di Milano (Vanity Fair).


L’AIntervista impossibile: Irene Cara. Testi: Claude.ai. Voce: Elevenlabs. Non ho modificato nulla a parte la grafia della parola inglese Fame che altrimenti veniva letta come fame in italiano.

Intervistatore: Irene, guardando indietro alla sua carriera, quale momento considera più significativo per la sua crescita artistica?

Il periodo di ‘Fame’ è stato fondamentale. Ero giovane, piena di energia e determinazione. Quel ruolo racchiudeva tutto ciò che amavo: il canto, la danza, la recitazione. Mi ricordo ancora le lunghe ore di prove, il sudore, la fatica, ma anche l’immensa gioia di vedere come il pubblico si identificava con Coco Hernandez. Quella esperienza mi ha insegnato che il vero talento richiede dedizione totale e che l’arte, in qualsiasi forma, ha il potere di toccare l’anima delle persone.

Intervistatore: Ha dovuto affrontare molte sfide nell’industria musicale, in particolare alcune battaglie legali. Come hanno influenzato la sua vita e la sua arte?

Le battaglie legali per i diritti d’autore sono state devastanti emotivamente, ma mi hanno resa più forte. Ho imparato che il successo nel mondo dello spettacolo non è solo talento, ma anche capacità di proteggere se stessi. Molti giovani artisti ancora oggi affrontano sfide simili. La mia esperienza mi ha insegnato l’importanza di mantenere la propria integrità artistica, anche quando il prezzo da pagare è alto. Ho sempre cercato di essere un esempio per gli artisti più giovani, dimostrando che si può combattere per i propri diritti senza perdere la passione per l’arte.

Intervistatore: Qual è il messaggio che vorrebbe lasciare alle nuove generazioni di artisti?

Il mio messaggio è semplice: credete nel vostro talento ma rimanete umili e continuate a studiare. L’arte è un viaggio continuo di apprendimento. La mia carriera è iniziata da bambina e fino all’ultimo ho continuato a evolvermi come artista. Le mie origini latine, la mia educazione nel Bronx, ogni esperienza ha contribuito a rendermi l’artista che sono diventata. Ricordate che il successo può essere effimero, ma la vera arte nasce dall’anima e dalla dedizione. E soprattutto, non permettete a nessuno di spegnere la vostra luce interiore, quel ‘feeling’ che vi fa brillare.

Podcast RSI – Australia, vietati i social sotto i 16 anni: misura applicabile o teatrino della sicurezza?

Questo è il testo della puntata del 2 dicembre 2024 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS.


[CLIP: annuncio del Notiziario RSI del 28/11/2024: “L’Australia sarà il primo paese al mondo a vietare l’accesso ai social media ai giovani sotto i 16 anni…”]

La sperimentazione comincerà tra poche settimane, a gennaio 2025, e da novembre dello stesso anno in Australia nessuno sotto i 16 anni potrà usare legalmente Instagram, X, Snapchat, TikTok e altri social network. In vari paesi del mondo sono allo studio misure analoghe, richieste a gran voce dall’opinione pubblica, e in Svizzera un recente sondaggio rileva che la maggioranza della popolazione nazionale, ben il 78%, è favorevole a limitare a 16 anni l’accesso ai social media. C’è un piccolo problema: nessuno sa come farlo in pratica.

Questa è la storia dell’idea ricorrente di vietare i social network al di sotto di una specifica età e di come quest’idea, a prima vista così pratica e sensata, si è sempre scontrata, prima o poi, con la realtà tecnica che l’ha puntualmente resa impraticabile.

Benvenuti alla puntata del 2 dicembre 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Il 28 novembre scorso l’Australia ha approvato una legge che imporrà ai grandi nomi dei social network, da Instagram a TikTok, di impedire ai minori di sedici anni di accedere ai loro servizi. Se non lo faranno, rischieranno sanzioni fino a 32 milioni di dollari.

A gennaio inizieranno i test dei metodi che serviranno a far rispettare questa nuova legge, denominata Social Media Minimum Age Bill, e questa sperimentazione sarà osservata con molto interesse dai governi di altri paesi che hanno in cantiere o hanno già varato misure simili ma non così drastiche. La Francia e alcuni stati degli Stati Uniti, per esempio, hanno già in vigore leggi che limitano l’accesso dei minori ai social network senza il permesso dei genitori, ma il divieto australiano non prevede neppure la possibilità del consenso parentale: è un divieto assoluto.

Screenshot della pagina ufficiale di presentazione della legge australiana SMMA.

La nuova legge australiana prevede un elenco di buoni e di cattivi: non si applicherà ai servizi di messaggistica, come Facebook Messenger o WhatsApp, e includerà delle eccezioni specifiche per YouTube o Google Classroom, che vengono usati a scopo educativo. I cattivi, invece, includono TikTok, Facebook, Snapchat, Instagram, X e Reddit.

Questa legge vieta specificamente ai minori di sedici anni di avere un account su questi servizi, ma non di consultarli: per esempio, secondo il documento esplicativo che la accompagna i minori sarebbero ancora in grado di vedere i video di YouTube senza però poter essere iscritti a YouTube o avervi un account, e potrebbero ancora vedere alcune pagine di Facebook ma senza essere iscritti a questa piattaforma. La ragione di questa scelta apparentemente complicata è che non avere un account eliminerebbe il problema dello “stress da notifica”, ossia i disturbi del sonno e dell’attenzione causati dalle notifiche social che arrivano in continuazione.

Non sono però previste sanzioni per i minori che dovessero tentare di eludere il divieto e quindi aprire lo stesso un account sulle piattaforme soggette a restrizione. Le penalità riguardano soltanto le piattaforme, e comunque va notato che anche l’importo massimo delle sanzioni che le riguarderebbero ammonta per esempio a un paio d’ore del fatturato annuale di Meta, che possiede Facebook, Instagram e WhatsApp e che nel 2023 ha incassato quasi 135 miliardi di dollari.

In altre parole, se i social network dovessero decidere di non rispettare questa legge australiana, le conseguenze per loro sarebbero trascurabili. Se i giovani australiani dovessero decidere di fare altrettanto, le conseguenze per loro sarebbero addirittura inesistenti.

Le intenzioni sembrano buone, perché il governo australiano nota che nel paese “quasi i due terzi degli australiani fra i 14 e i 17 anni ha visto online contenuti estremamente dannosi, compresi l’abuso di farmaci, il suicidio o l’autolesionismo, oltre a materiale violento,” come ha dichiarato il ministro delle comunicazioni australiano Michelle Rowland. Ma questa legge, con le sue sanzioni blande o addirittura inesistenti, ha le caratteristiche tipiche di quello che gli esperti informatici chiamano “teatrino della sicurezza” o security theater: un provvedimento che dà l’impressione e la sensazione confortante di una maggiore sicurezza, ma fa poco o nulla per fornirla davvero.

Questo Social Media Minimum Age Bill non produce effetti formali, però può avere un effetto sociale importante: può essere un aiuto per i genitori, che a quel punto potranno rifiutare con più efficacia la richiesta dei figli di accedere ai social network in età sempre più precoce, perché potranno appoggiarsi al fatto che questo accesso è illegale e non è più una proibizione arbitraria scelta da loro. A patto, però, che ci sia un modo efficace per far valere questo divieto. Ed è qui che sta il problema.


La legge australiana parla infatti genericamente di “un obbligo dei fornitori di una piattaforma di social media soggetta a restrizioni di età di prendere misure ragionevoli per prevenire che gli utenti soggetti a restrizioni di età possano avere un account sulla piattaforma”. Ma non dice assolutamente nulla su come si debbano realizzare concretamente queste “misure ragionevoli”.

Anzi, la legge approvata prevede esplicitamente che gli utenti non siano obbligati a fornire dati personali, compresi quelli dei documenti di identità, e quindi si pone un problema molto serio: come si verifica online l’età di una persona, se non le si può nemmeno chiedere un documento?

Ci sono varie tecniche possibili: una è il riconoscimento facciale, che grazie all’intelligenza artificiale è in grado di stimare abbastanza affidabilmente l‘età di una persona in base alla forma del viso, alla consistenza della pelle o alle proporzioni del corpo.*

* Questa tecnologia viene già usata da Facebook, OnlyFans, SuperAwesome di Epic Games e altri siti. Ha il notevole vantaggio di rispettare la privacy, perché non chiede di fornire documenti o di dare il nome della persona. Non identifica la persona ma si limita a stimarne l’età, e una volta fatta la stima l‘immagine della persona può essere cancellata. Non richiedendo documenti, non dissemina tutti i dati di contorno presenti su un documento di identità o su una carta di credito, ed è più inclusiva, visto che oltre un miliardo di persone nel mondo (e una persona su cinque nel Regno Unito) non ha documenti di identità.

Un’altra è la verifica sociale, ossia la valutazione di quante connessioni e interazioni con adulti ha un utente e di come è fatta la sua cronologia social. Una terza è l’obbligo di fornire i dati di una carta di credito per iscriversi, presumendo che solo una persona che ha più di 16 anni possa normalmente avere accesso a una carta.

Nessuno di questi metodi è perfetto, e il legislatore australiano ne tiene conto sin da subito, dichiarando che si aspetta che qualche minore riesca a eludere queste restrizioni e questi controlli. Ma ciascun metodo ha un costo operativo non trascurabile e comporta delle possibilità di errore che rischiano di colpire soprattutto le persone particolarmente vulnerabili, come ha notato Amnesty International, dichiarando inoltre che “un divieto che isola le persone giovani non soddisferà l’obiettivo del governo di migliorare le vite dei giovani”.

Ben 140 esperti hanno sottoscritto una lettera aperta che manifesta la loro preoccupazione per l’uso di uno strumento definito “troppo grossolano per affrontare efficacemente i rischi” e che “crea rischi maggiori per i minori che continueranno a usare le piattaforme” e ha “effetti sul diritto di accesso e di partecipazione”.

I social network coinvolti, da parte loro, si sono dichiarati contrari a questa legge ma disposti a rispettarla. Meta, per esempio, ha detto di essere “preoccupata a proposito del procedimento che ha approvato in fretta e furia la legge senza considerare correttamente le evidenze, quello che il settore già fa per garantire esperienze adatte all’età, e le voci delle persone giovani”. Parole che suonano un po’ vuote per chi ha esperienza di Instagram o Facebook e sa quanto è invece facile subire esperienze decisamente non adatte all’età. Per non parlare poi di X, il social network noto un tempo come Twitter, che ospita contenuti pornografici estremi e di violenza e li rende facilmente accessibili semplicemente cambiando una singola impostazione nell’app.

L’opinione pubblica australiana è fortemente a favore del divieto, sostenuto dal 77% dei partecipanti a un sondaggio di YouGov. In Svizzera, praticamente la stessa percentuale, il 78%, ha risposto “sì” o “piuttosto sì” a un sondaggio pubblicato da Tamedia sull’ipotesi di limitare a 16 anni l‘accesso a certi social network.

Però il modo in cui funziona la tecnologia non si cambia a suon di leggi o sondaggi.


Per esempio, anche se nel caso dell’Australia la geografia aiuta, non è corretto pensare che un provvedimento nazionale risolva il problema. I social network sono entità transnazionali e non rispettano frontiere e barriere. Che si fa con i turisti, giusto per ipotizzare uno dei tanti scenari che la legge non sembra aver considerato? Chi arriverà in Australia per vacanza con un minore dovrà dirgli di non usare i social network per tutto il tempo della vacanza? Gli account social dei minori in visita verranno bloccati automaticamente?

Nulla impedisce, poi, a un minore di installare una VPN e simulare di trovarsi al di fuori dell’Australia. E ci sono tanti altri social network e tante piattaforme di scambio messaggi che non saranno soggetti alle restrizioni di questa legge: in altre parole, il rischio di queste misure decise di pancia, senza considerare gli aspetti tecnici, è che i giovani vengano involontariamente invogliati a usare servizi social ancora meno monitorati rispetto a TikTok, Facebook e Instagram, o semplicemente usino account su queste piattaforme offerti a loro da maggiorenni compiacenti. Il mercato nero degli account social altrui rischia insomma di essere potenziato.

Dunque questa legge australiana ha l’aria di essere più una mossa elettorale, una ricerca di consensi, un teatrino della sicurezza che una misura realmente utile a proteggere i giovani dai pericoli indiscussi dell’abuso dei social media.

Se si volesse davvero impedire concretamente l’accesso ai social network ai minori, o perlomeno renderlo estremamente difficile, un modo forse ci sarebbe. Invece di cercare di appioppare la patata bollente ai fornitori dei social network dando oro vaghe istruzioni, si potrebbe proibire l’uso degli smartphone da parte dei minori. Questo uso, soprattutto in pubblico ma anche in famiglia, è facilmente verificabile, perché lo smartphone è un oggetto tangibile e riconoscibile. Ma stranamente nessun governo osa proporre soluzioni di questo genere, che sarebbero estremamente impopolari.

Chi sta seguendo con interesse questo esperimento sociale australiano nella speranza di trarne delle lezioni applicabili altrove si troverà molto probabilmente in collisione con la realtà. Nel 2017, il primo ministro australiano di allora, Malcolm Turnbull, propose una nuova legge per obbligare le aziende del settore informatico a dare ai servizi di sicurezza pieno accesso ai messaggi protetti dalla crittografia, come per esempio quelli di WhatsApp. Gli esperti obiettarono che questa crittografia funziona sulla base di concetti matematici molto complessi, che sono quelli che sono e non sono modificabili a piacere.

Malcolm Turnbull, il primo ministro, rispose pubblicamente che “Le leggi della matematica sono lodevoli, ma l’unica legge che vige in Australia è la legge australiana” [“The laws of mathematics are very commendable, but the only law that applies in Australia is the law of Australia”]. Se è questo il livello di comprensione della tecnologia da parte dei politici, è il caso di aspettarsi altri teatrini della sicurezza dai quali si potrà solo imparare come esempi di cose da non fare e da non imitare.

Fonti

Social media reforms to protect our kids online pass Parliament, Pm.gov.au, (2024)

L’Australia è il primo Paese a vietare i social agli under 16, Rsi.ch (2024)

Social dai 16 anni, d’accordo la maggioranza della popolazione, Rsi.ch (2024)

Australia passes social media ban for children under 16, Reuters (2024)

Labor has passed its proposed social media ban for under-16s. Here’s what we know – and what we don’t, The Guardian (2024)

Australia passes world-first law banning under-16s from social media despite safety concerns, The Guardian (2024)

How facial age estimation is creating age-appropriate experiences, Think.Digital Partners (2023)

How facial age-estimation tech can help protect children’s privacy for COPPA and beyond, Iapp.org (2023)

UK open to social media ban for kids as government kicks off feasibility study, TechCrunch (2024)

Bill to ban social media use by under-16s arrives in Australia’s parliament, TechCrunch (2024)

Laws of mathematics don’t apply here, says Australian PM, New Scientist (2017)

Niente Panico RSI – Puntata del 2024/12/02

Con colpevole ritardo pubblico qui la registrazione scaricabile della puntata di lunedì scorso di Niente Panico, il programma che conduco in diretta insieme a Rosy Nervi sulla Rete Tre della Radiotelevisione Svizzera. La trasmissione è riascoltabile qui sul sito della RSI oppure nell’embed qui sotto. La raccolta completa delle puntate è presso attivissimo.me/np.

I temi della puntata

L’account Instagram della settimana: @benzank e le sue foto surreali.


La bufala della settimana: Elon Musk trova sull’autobus una bambina che si era persa, la ricongiunge con la madre e regala alle due una casa. Un caso di fake news fabbricato usando l’intelligenza artificiale per guadagnare clic e denaro (tratto da Snopes.com).


Una donna poco conosciuta ma di cui tutti conosciamo le opere: Cos’hanno in comune September degli Earth, Wind & Fire e la sigla di Friends? La paroliera, Allee Willis.


L’intervista (stavolta non generata con l’IA): due parole con il creatore e studioso di cerchi nel grano, Francesco Grassi.

Niente Panico RSI – Puntata del 2024/12/09

Ieri alle 9 è andata in onda una nuova puntata in diretta di Niente Panico, il programma che conduco insieme a Rosy Nervi sulla Rete Tre della Radiotelevisione Svizzera. La trasmissione è riascoltabile qui oppure nell’embed qui sotto. Le puntate sono elencate presso attivissimo.me/np.

I temi della puntata

Abbiamo dedicato l’intera puntata a raccontare chicche poco conosciute e aneddoti della vita e del curriculum di Elon Musk.

Podcast RSI – Le ginnaste mostruose di OpenAI rivelano i trucchi delle IA

Questo è il testo della puntata del 16 dicembre 2024 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS.


Il 9 dicembre scorso OpenAI, l’azienda che ha creato ChatGPT, ha rilasciato al pubblico Sora, un generatore di video basato sull’intelligenza artificiale, che era stato presentato a febbraio senza però renderlo pubblicamente disponibile. Con Sora, si descrive a parole la scena che si desidera, e il software produce il video corrispondente, in alta definizione.

Gli spezzoni dimostrativi sono straordinariamente realistici, e Sora a prima vista sembra essere un altro prodotto vincente e rivoluzionario di OpenAI, ma il giorno dopo il suo debutto ha iniziato a circolare in modo virale sui social network [Bluesky; X] un video, realizzato con Sora da un utente, che è così profondamente sbagliato e grottesco che diventa comico. Per qualche strano motivo, Sora sa generare di tutto, dai cani che corrono e nuotano alle persone che ascoltano musica ai paesaggi tridimensionali, ma è totalmente incapace di generare un video di una ginnasta che fa esercizi a corpo libero.

here's a Sora generated video of gymnastics

[image or embed]

— Peter Labuza (@labuzamovies.bsky.social) 11 dicembre 2024 alle ore 18:35

Il video diventato virale mostra appunto quella che dovrebbe essere una atleta che compie una serie di movimenti ginnici ma invece diventa una sorta di frenetica ameba fluttuante dal cui corpo spuntano continuamente arti a caso e le cui braccia diventano gambe e viceversa; dopo qualche secondo la testa le si stacca dal corpo e poi si ricongiunge. E non è l’unico video del suo genere.

Un risultato decisamente imbarazzante per OpenAI, ben diverso dai video dimostrativi così curati presentati dall’azienda. Un risultato che rivela una delle debolezze fondamentali delle intelligenze artificiali generative attuali e mette in luce il “trucco” sorprendentemente semplice usato da questi software per sembrare intelligenti.

Questa è la storia di quel trucco, da conoscere per capire i limiti dell’intelligenza artificiale ed evitare di adoperarla in modo sbagliato e pagare abbonamenti costosi ma potenzialmente inutili.

Benvenuti alla puntata del 16 dicembre 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Dieci mesi dopo il suo annuncio iniziale, OpenAI ha reso disponibile al pubblico il generatore di video Sora basato sull’intelligenza artificiale. Dandogli una descrizione, o prompt, Sora produce un video che può durare fino a venti secondi e rispecchia fedelmente la descrizione fornita.

Sora è la naturale evoluzione delle intelligenze artificiali generative: nel giro di pochi anni, dalla semplice produzione di testi siamo passati alla generazione di immagini, ormai diventate fotorealistiche, sempre partendo da un prompt testuale, e ora arrivano i video generati.

OpenAI non è l’unica azienda che ha presentato intelligenze artificiali che generano video: lo hanno già fatto Google, Runway, Kling e Minimax, giusto per fare qualche nome. Ma Sora sembrava essere molto superiore alla concorrenza, perlomeno fino al momento in cui ha iniziato a circolare il video della ginnasta ameboide.

Va detto che tutti i prodotti attuali di generazione di video hanno gli stessi problemi: spesso producono videoclip mostruosi e deformi, e tocca generarne tanti per ottenerne uno buono. Ma come mai il prodotto di punta di un’azienda leader nel settore fallisce miseramente proprio con la ginnastica artistica?

Per capirlo bisogna ragionare sul modo in cui lavorano le intelligenze artificiali: vengono addestrate fornendo loro un numero enorme di testi, foto o video di esempio di vario genere. Le foto e i video vengono accompagnati da una dettagliata descrizione testuale, una sorta di etichettatura. In questa fase di addestramento, l’intelligenza artificiale crea delle associazioni statistiche fra le parole e le immagini. Quando poi le viene chiesto di creare un testo, un’immagine o un video, attinge a questo vastissimo catalogo di associazioni e lo usa per il suo trucco fondamentale: calcolare il dato successivo più probabile.

Nel caso della generazione di testi, l’intelligenza artificiale inizia a scegliere una prima parola o sequenza di parole, basata sulla descrizione iniziale, e poi non fa altro che mettere in fila le parole statisticamente più probabili per costruire i propri testi. Nelle risposte di ChatGPT, per capirci, non c’è nessuna cognizione o intelligenza: quello che scrive è in sostanza la sequenza di parole più probabile. Sto semplificando, ma il trucco di base è davvero questo.

Lo ha detto chiaramente Sam Altman, il CEO di OpenAI, in una dichiarazione resa davanti a un comitato del Senato statunitense nel 2023:

La generazione attuale di modelli di intelligenza artificiale – dice – è costituita da sistemi di predizione statistica su vasta scala: quando un modello riceve la richiesta di una persona, cerca di prevedere una risposta probabile. Questi modelli operano in maniera simile al completamento automatico sugli smartphone […] ma a una scala molto più ampia e complessa […] – dice sempre Altman – Gli strumenti di intelligenza artificiale sono inoltre in grado di imparare i rapporti statistici fra immagini e descrizioni testuale e di generare nuove immagini basate su input in linguaggio naturale.

[fonte, pag. 2]

In altre parole, ChatGPT sembra intelligente perché prevede le parole o frasi più probabili dopo quelle immesse dall’utente. Nel caso dei video, un’intelligenza artificiale calcola l’aspetto più probabile del fotogramma successivo a quello corrente, basandosi sull’immenso repertorio di video che ha acquisito durante l’addestramento. Tutto qui. Non sa nulla di ombre o forme o di come si muovono gli oggetti o le persone (o, in questo caso, gli arti delle ginnaste): sta solo manipolando pixel e probabilità. Sora affina questa tecnica tenendo conto di numerosi fotogrammi alla volta, ma il principio resta quello.

Ed è per questo che va in crisi con la ginnastica.


Come spiega Beni Edwards su Ars Technica, i movimenti rapidi degli arti, tipici della ginnastica a corpo libero, rendono particolarmente difficile prevedere l’aspetto corretto del fotogramma successivo usando le tecniche attuali dell’intelligenza artificiale. E così Sora genera, in questo caso, un collage incoerente di frammenti dei video di ginnastica a corpo libero che ha acquisito durante l‘addestramento, perché non sa quale sia l’ordine giusto nel quale assemblarli. E non lo sa perché attinge a medie statistiche basate su movimenti del corpo molto differenti tra loro e calcolate su una quantità modesta di video di ginnastica a corpo libero.

Non è un problema limitato alla ginnastica artistica: in generale, se il tipo di video chiesto dall’utente è poco presente nell’insieme di dati usato per l’addestramento, l’intelligenza artificiale è costretta a inventarsi i fotogrammi, creando così movimenti mostruosi e arti supplementari che sono l’equivalente video delle cosiddette “allucinazioni” tipiche delle intelligenze artificiali che generano testo.

Sora, in questo senso, è nonostante tutto un passo avanti: alcuni generatori di video concorrenti usciti nei mesi scorsi facevano addirittura svanire le atlete a mezz’aria o le inglobavano nei tappeti o negli attrezzi, in una sorta di versione IA del terrificante morphing del robot T-1000 alla fine di Terminator 2: Il giorno del giudizio.

Questo suggerisce una possibile soluzione al problema: aumentare la quantità e la varietà di video dati in pasto all’intelligenza artificiale per addestrarla, ed etichettare con molta precisione i contenuti di quei video. Ma non è facile, perché quasi tutti i video sono soggetti al copyright. Soprattutto quelli degli eventi sportivi, e quindi non sono liberamente utilizzabili per l’addestramento.

Sora fa sorridere con i suoi video mostruosamente sbagliati in questo campo, ma non vuol dire che sia da buttare: è comunque una tappa molto importante verso la generazione di video di qualità. Se i video che avete bisogno di generare rappresentano scene comuni, come una persona che cammina o gesticola oppure un paesaggio, Sora fa piuttosto bene il proprio mestiere e consente anche di integrare oggetti o immagini preesistenti nei video generati.

Al momento, però, non è disponibile in Europa, salvo ricorrere a VPN o soluzioni analoghe, e accedere alle funzioni di generazione video costa: gli abbonati che pagano 20 dollari al mese a ChatGPT possono creare fino a 50 video al mese, in bassa qualità [480p] oppure possono crearne di meno ma a qualità maggiore. Gli abbonati Pro, che pagano ben 200 dollari al mese, possono chiedere risoluzioni maggiori e durate più lunghe dei video generati.

Se volete farvi un’idea delle attuali possibilità creative di Sora, su Vimeo trovate per esempio The Pulse Within, un corto creato interamente usando spezzoni video generati con questo software, e sul sito di Sora, Sora.com, potete sfogliare un ricco catalogo di video dimostrativi.

Siamo insomma ancora lontani dai film creati interamente con l’intelligenza artificiale, ma rispetto a quello che si poteva fare un anno fa, i progressi sono stati enormi. Ora si tratta di decidere come usare questi nuovi strumenti e le loro nuove possibilità creative.

Infatti il rapidissimo miglioramento della qualità di questi software e la loro disponibilità di massa significano anche che diventa più facile e accessibile produrre deepfake iperrealistici o, purtroppo, anche contenuti di abuso su adulti e minori. Sora ha già implementato filtri che dovrebbero impedire la generazione di questo tipo di video, e i contenuti prodotti con Sora hanno delle caratteristiche tecniche che aiutano a verificare se un video è sintetico oppure no, ma questo è un settore nel quale la gara fra chi mette paletti e chi li vuole scardinare non conosce pause. Nel frattempo, noi comuni utenti possiamo solo restare vigili e consapevoli che ormai non ci si può più fidare neppure dei video. A meno che, per ora, siano video di ginnastica artistica.

Fonti aggiuntive

Ten months after first tease, OpenAI launches Sora video generation publicly, Ars Technica

Niente Panico RSI – Puntata del 2024/12/16

Lunedì mattina è andata in onda una nuova puntata in diretta di Niente Panico, il programma che conduco insieme a Rosy Nervi sulla Rete Tre della Radiotelevisione Svizzera. La trasmissione è riascoltabile sul sito della RSI e nell’embed qui sotto; la raccolta completa delle puntate è presso attivissimo.me/np.

L’Instagram della settimana è @focusart80, artista digitale che usa l’intelligenza artificiale e altre tecniche di elaborazione delle immagini per creare persone e scenari surreali. Abbiamo parlato di concerti in realtà virtuale, da Travis Scott ad Ariana Grande, di unboxing e di fare soldi con Twitch. La AI-intervista ha avuto come ospite (ovviamente sintetico) Vasilij Kandinskij.

Questa è l’ultima puntata di Niente Panico per il 2024; il programma tornerà il 7 gennaio prossimo, per una sola volta di martedì, e poi riprenderà il suo orario abituale del lunedì alle 9 su Rete Tre.

Podcast RSI – Google Maps diventa meno ficcanaso

Questo è il testo della puntata del 23 dicembre 2024 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il podcast riprenderà il 13 gennaio 2025.


Se avete ricevuto una strana mail che sembra provenire da Google e che parla di “spostamenti” e “cronologia delle posizioni” ma non avete idea di cosa voglia dire, siete nel posto giusto per levarvi il dubbio e capire se e quanto siete stati pedinati meticolosamente da Google per anni: siete nella puntata del 23 dicembre 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica, e dedicato in questo caso agli importanti cambiamenti della popolarissima app Google Maps. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Se siete fra i tantissimi utenti che hanno installato e usano Google Maps sullo smartphone, forse non vi siete mai accorti che questa utilissima app non vi dice soltanto dove siete e dove si trovano i punti di interesse intorno a voi, ma si ricorda ogni vostro spostamento sin da quando l’avete installata, anche quando le app di Google non sono in uso. In altre parole, Google sa dove siete stati, minuto per minuto, giorno per giorno, e lo sa molto spesso per anni di fila.

Infatti se andate nell’app e toccate l’icona del vostro profilo, compare un menu che include la voce Spostamenti. Toccando questa voce di menu compare un calendario con una dettagliatissima cronologia di tutti i vostri spostamenti, che include gli orari di partenza e di arrivo e anche il mezzo di trasporto che avete usato: bici, auto, nave, treno, aereo, piedi.

Google infatti usa i sensori del telefono per dedurre la vostra posizione: non solo il tradizionale GPS, che funziona solo all’aperto, ma anche il Wi-Fi e il Bluetooth, che permettono il tracciamento della posizione anche al coperto. Anche se non vi collegate a una rete Wi-Fi mentre siete in giro, Google Maps fa una scansione continua delle reti Wi-Fi presenti nelle vicinanze e confronta i loro nomi con una immensa mappa digitale, costantemente aggiornata, delle reti Wi-Fi in tutto il mondo. Se trova una corrispondenza, deduce che siete vicini a quella rete e quindi sa dove vi trovate, anche al chiuso.

Moltissime persone non sono a conoscenza di questo tracciamento di massa fatto da Google. Quando vado nelle scuole a presentare agli studenti le questioni di sicurezza e privacy informatica, mostrare a uno specifico studente la sua cronologia degli spostamenti archiviata da Google per anni è una delle dimostrazioni più efficaci e convincenti della necessità di chiedersi sempre quali dati vengono raccolti su di noi e come vengono usati. Sposta immediatamente la conversazione dal tipico “Eh, ma quante paranoie” a un più concreto “Come faccio a spegnerla?”

Disattivare il GPS non basta, perché Maps usa appunto anche il Wi-Fi per localizzare il telefono e quindi il suo utente. Bisognerebbe disattivare anche Wi-Fi e Bluetooth, ma a quel punto lo smartphone non sarebbe più uno smartphone, perché perderebbe tutti i servizi basati sulla localizzazione, dal navigatore alla ricerca del ristorante o Bancomat più vicino, e qualsiasi dispositivo Bluetooth, come cuffie, auricolari o smartwatch, cesserebbe di comunicare. Si potrebbe disabilitare GPS, Bluetooth e Wi-Fi solo per Maps, andando nei permessi dell’app, ma è complicato e molti utenti non sanno come fare e quindi rischiano di disabilitare troppi servizi e trovarsi con un telefono che non funziona più correttamente.

Maps permette di cancellare questa cronologia, per un giorno specifico oppure integralmente, ma anche in questo caso viene il dubbio: e se un domani ci servisse sapere dove eravamo in un certo giorno a una certa ora? Per esempio per catalogare le foto delle vacanze oppure per dimostrare a un partner sospettoso dove ci trovavamo e a che ora siamo partiti e arrivati? Non ridete: ci sono persone che lo fanno. Lo so perché le incontro per lavoro. Ma questa è un’altra storia.

Insomma, sbarazzarsi di questo Grande Fratello non è facile. Ma ora è arrivata una soluzione alternativa, ed è questo il motivo della mail di Google.


Il titolo della mail firmata Google, nella versione italiana, è “Vuoi conservare i tuoi Spostamenti? Decidi entro il giorno 18 maggio 2025”, e il messaggio di solito arriva effettivamente da Google, anche se è probabile che i soliti sciacalli e truffatori della Rete invieranno mail false molto simili per cercare di ingannare gli utenti, per cui conviene comunque evitare di cliccare sui link presenti nella mail di avviso e andare direttamente alle pagine di Google dedicate a questo cambiamento; le trovate indicate su Attivissimo.me.

La prima buona notizia è che se siete sicuri di non voler conservare questa cronologia dei vostri spostamenti, è sufficiente non fare nulla: i dati e le impostazioni degli Spostamenti verranno disattivati automaticamente dopo il 18 maggio 2025 e Google smetterà di tracciarvi, perlomeno in questo modo.

Se invece volete conservare in tutto o in parte questa cronologia, dovete agire, e qui le cose si fanno complicate. Il grosso cambiamento, infatti, è che i dati della cronologia degli spostamenti non verranno più salvati sui server di Google ma verranno registrati localmente sul vostro telefono, in maniera molto meno invadente rispetto alla situazione attuale.

Per contro, Google avvisa che dopo il 18 maggio, se non rinunciate alla cronologia, i dati sui vostri spostamenti verranno raccolti da tutti i dispositivi che avete associato al vostro account Google, quindi non solo dal vostro telefono ma anche da eventuali tablet o computer o altri smartphone, e verranno raccolti anche se avevate disattivato la registrazione degli spostamenti su questi altri dispositivi.

Un’altra novità importante è che la cronologia degli spostamenti non sarà più disponibile nei browser Web, ma sarà accessibile soltanto tramite l’app Google Maps e soltanto sul telefono o altro dispositivo sul quale avete scelto di salvare la copia locale della cronologia.

La procedura di cambiamento di queste impostazioni di Google Maps è semplice e veloce ed è usabile anche subito, senza aspettare maggio del 2025. Con pochi clic si scelgono le preferenze desiderate e non ci si deve pensare più. Se si cambia idea in futuro, si possono sempre cambiare le proprie scelte andando a myactivity.google.com/activitycontrols oppure entrare nell’app Google Maps e scegliere il menu Spostamenti. I dati scaricati localmente, fra l’altro, occupano pochissimo spazio: la mia cronologia degli spostamenti, che copre anni di viaggi, occupa in tutto meno di tre megabyte.

Resta un ultimo problema: se i dati della cronologia degli spostamenti vi servono e d’ora in poi verranno salvati localmente sul vostro telefono, come farete quando avrete bisogno di cambiare smartphone? Semplice: Google offre la possibilità di fare un backup automatico dei dati, che viene salvato sui server di Google e può essere quindi importato quando si cambia telefono.

Ma allora siamo tornati al punto di partenza e i dati della cronologia restano comunque a disposizione di Google? No, perché il backup è protetto dalla crittografia e Google non può leggerne il contenuto, come descritto nelle istruzioni di backup fornite dall’azienda.


Resta solo da capire cosa fa esattamente Google con i dati di localizzazione di milioni di utenti. Sul versante positivo, questi dati permettono di offrire vari servizi di emergenza, per esempio comunicando ai soccorritori dove vi trovate. Se andate a correre e usate lo smartphone o smartwatch per misurare le vostre prestazioni, la localizzazione permette di tracciare il vostro chilometraggio. Se cercate informazioni meteo o sul traffico, la localizzazione consente di darvi più rapidamente i risultati che riguardano la zona dove vi trovate. Se smarrite il vostro telefono, questi dati permettono di trovarlo più facilmente. E se qualcuno accede al vostro account senza il vostro permesso, probabilmente lo fa da un luogo diverso da quelli che frequentate abitualmente, e quindi Google può insospettirsi e segnalarvi la situazione anomala.

Sul versante meno positivo, le informazioni di localizzazione permettono a Google di mostrarvi annunci più pertinenti, per esempio i negozi di scarpe nella vostra zona se avete cercato informazioni sulle scarpe in Google. In dettaglio, Google usa non solo i dati di posizione, ma anche l’indirizzo IP, le attività precedenti, l’indirizzo di casa e di lavoro che avete memorizzato nel vostro account Google, il fuso orario del browser, i contenuti e la lingua della pagina visitata, il tipo di browser e altro ancora. Tutti questi dati sono disattivabili, ma la procedura è particolarmente complessa.

Non stupitevi, insomma, se il vostro smartphone a volte vi offre informazioni o annunci così inquietantemente azzeccati e pertinenti da farvi sospettare che il telefono ascolti le vostre conversazioni. Google non lo fa, anche perché con tutti questi dati di contorno non gli servirebbe a nulla farlo. E se proprio non volete essere tracciati per qualunque motivo, c’è sempre l’opzione semplice e pratica di lasciare il telefono a casa o portarlo con sé spento.

Usare Google senza esserne usati è insomma possibile, ma servono utenti informati e motivati, non cliccatori passivi. Se sono riuscito a darvi le informazioni giuste per decidere e per motivarvi, questo podcast ha raggiunto il suo scopo. E adesso vado subito anch’io a salvare la mia cronologia degli spostamenti.

Niente Panico RSI – Puntata del 2025/01/07

È andata in onda stamattina alle 9 una nuova puntata in diretta di Niente Panico, il programma che conduco insieme a Rosy Nervi sulla Rete Tre della Radiotelevisione Svizzera. La trasmissione è riascoltabile presso www.rsi.ch/rete-tre/programmi/intrattenimento/serotonina oppure nell’embed qui sotto.

Lo streaming in diretta della Rete Tre è presso www.rsi.ch/audio/rete-tre/live; la raccolta completa delle puntate è presso Attivissimo.me/np.

Podcast RSI – Davvero la scienza dice che “il fact-checking non funziona”?

Questo è il testo della puntata del 13 gennaio 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS.


Pochi giorni fa Meta ha annunciato che chiuderà il proprio programma di fact-checking gestito tramite esperti esterni e lo sostituirà con le cosiddette Community notes, ossia delle annotazioni redatte dagli stessi utenti dei suoi social network, come ha già fatto la piattaforma concorrente X di Elon Musk.

Questa decisione, che per citare un titolo del Corriere della Sera è stata vista come una “resa definitiva a Trump (e Musk)”, ha rianimato la discussione su come contrastare la disinformazione. Walter Quattrociocchi, professore ordinario dell’Università La Sapienza di Roma, ha dichiarato che “Il fact-checking è stato un fallimento, ma nessuno vuole dirlo”, aggiungendo che “[l]a comunità scientifica lo aveva già dimostrato”. Queste sono sue parole in un articolo a sua firma pubblicato sullo stesso Corriere.

Detta così, sembra una dichiarazione di resa incondizionata della realtà, travolta e sostituita dai cosiddetti “fatti alternativi” e dai deliri cospirazionisti. Sembra un’ammissione che non ci sia nulla che si possa fare per contrastare la marea montante di notizie false, di immagini fabbricate con l’intelligenza artificiale, di propaganda alimentata da interessi economici o politici, di tesi di complotto sempre più bizzarre su ogni possibile argomento. I fatti hanno perso e le fandonie hanno vinto.

Se mi concedete di portare per un momento la questione sul piano personale, sembra insomma che la scienza dica che il mio lavoro di “cacciatore di bufale” sia una inutile perdita di tempo, e più in generale lo sia anche quello dei miei tanti colleghi che fanno debunking, ossia verificano le affermazioni che circolano sui social network e nei media in generale e le confermano o smentiscono sulla base dei fatti accertati.

È veramente così? Difendere i fatti è davvero fatica sprecata? Ragioniamoci su in questa puntata, datata 13 gennaio 2025, del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Nel suo annuncio pubblico, Mark Zuckerberg ha spiegato che il programma di fact-checking lanciato nel 2016 dalla sua piattaforma e basato su organizzazioni indipendenti specializzate in verifica dei fatti voleva dare agli utenti “più informazioni su quello che vedono online, in particolare sulle notizie false virali, in modo che potessero giudicare da soli quello che vedevano e leggevano”, scrive Zuckerberg.

Ma a suo dire questo approccio non ha funzionato perché anche gli esperti, dice, “come tutte le persone, hanno i propri pregiudizi e i propri punti di vista”, e quindi è giunto il momento di sostituire gli esperti esterni con gli utenti dei social network. Saranno loro, dice Zuckerberg, a “decidere quando i post sono potenzialmente ingannevoli e richiedono più contesto”, e saranno “persone che hanno una vasta gamma di punti di vista” a “decidere quale tipo di contesto è utile che gli altri utenti vedano”.

Zuckerberg non spiega, però, in che modo affidare la valutazione delle notizie agli utenti farà magicamente azzerare quei pregiudizi e quei punti di vista di cui parlava. In fin dei conti, gli utenti valutatori saranno un gruppo che si autoselezionerà invece di essere scelto in base a criteri di competenza. Anzi, l’autoselezione è già cominciata, perché Zuckerberg ha già pubblicato i link per iscriversi alla lista d’attesa per diventare valutatori su Facebook, Instagram e Threads. Mi sono iscritto anch’io per vedere dall’interno come funzionerà questa novità e raccontarvela.

Invece le Linee guida della community, ossia le regole di comportamento degli utenti di Meta, sono già state riscritte per togliere molte restrizioni sui discorsi d’odio, aggiungendo specificamente che dal 7 gennaio scorso sono consentite per esempio le accuse di malattia mentale o anormalità basate sul genere o l’orientamento sessuale* ed è accettabile paragonare le donne a oggetti e le persone di colore ad attrezzi agricoli oppure negare l’esistenza di una categoria di persone o chiedere l’espulsione di certi gruppi di individui.**

* Il 10 gennaio, Meta ha eliminato da Messenger i temi Pride e Non-Binary che aveva introdotto con così tanta enfasi rispettivamente 2021 e nel 2022 [404 media; Platformer.news]. Intanto Mark Lemley, avvocato per le questioni di copyright e intelligenza artificiale di Meta, ha troncato i rapporti con l’azienda, scrivendo su LinkedIn che Zuckerberg e Facebook sono in preda a “mascolinità tossica e pazzia neonazista”.

** Confesso che nel preparare il testo di questo podcast non sono riuscito a trovare parole giornalisticamente equilibrate per definire lo squallore infinito di un‘azienda che decide intenzionalmente di riscrivere le proprie regole per consentire queste specifiche forme di odio. E così ho contenuto sia il conato che la rabbia, e ho deciso di lasciare che le parole di Meta parlassero da sole.

Un’altra novità importante è che Meta smetterà di ridurre la visibilità dei contenuti sottoposti a verifica e gli utenti, invece di trovarsi di fronte a un avviso a tutto schermo che copre i post a rischio di fandonia, vedranno soltanto “un’etichetta molto meno invadente che indica che sono disponibili ulteriori informazioni per chi le vuole leggere”. In altre parole, sarà più facile ignorare gli avvertimenti.

Insomma, è un po’ come se una compagnia aerea decidesse che tutto sommato è inutile avere dei piloti addestrati e competenti ed è invece molto meglio lasciare che siano i passeggeri a discutere tra loro, insultandosi ferocemente, su come pilotare, quando tirare su il carrello o farlo scendere, quanto carburante imbarcare e cosa fare se l’aereo sta volando dritto verso una montagna. Ed è un po’ come se decidesse che è più saggio che gli irritanti allarmi di collisione vengano sostituiti da una voce sommessa che dice “secondo alcuni passeggeri stiamo precipitando, secondo altri no, comunque tocca lo schermo per ignorare tutta la discussione e guardare un video di tenerissimi gattini.

Va sottolineato che queste scelte di Meta riguardano per ora gli Stati Uniti e non si applicano in Europa, dove le leggi* impongono ai social network degli obblighi di moderazione e di mitigazione della disinformazione e dei discorsi d’odio.

*  In particolare il Digital Services Act o DSA, nota Martina Pennisi sul Corriere.

Ma una cosa è certa: questa nuova soluzione costerà molto meno a Meta. I valutatori indipendenti vanno pagati (lo so perché sono stato uno di loro per diversi anni), mentre gli utenti che scriveranno le Note della comunità lo faranno gratis. Cosa mai potrebbe andare storto?


Ma forse Mark Zuckerberg tutto sommato ha ragione, perché è inutile investire in verifiche dei fatti perché tanto “il fact-checking non funziona,” come scrive appunto il professor Quattrociocchi, persona che conosco dai tempi in cui abbiamo fatto parte dei numerosi consulenti convocati dalla Camera dei Deputati italiana sul problema delle fake news.

In effetti Quattrociocchi presenta dei dati molto rigorosi, contenuti in un articolo scientifico di cui è coautore, intitolato Debunking in a world of tribes, che si basa proprio sulle dinamiche sociali analizzate dettagliatamente su Facebook fra il 2010 e il 2014. Questo articolo e altri indicano che “il fact-checking, lungi dall’essere una soluzione, spesso peggiora le cose” [Corriere] perché crea delle casse di risonanza o echo chamber, per cui ogni gruppo rimane della propria opinione e anzi si polarizza ancora di più: se vengono esposti a un fact-checking, i complottisti non cambiano idea ma anzi tipicamente diventano ancora più complottisti, mentre chi ha una visione più scientifica delle cose è refrattario anche a qualunque minima giusta correzione che tocchi le sue idee.

Ma allora fare il mio lavoro di cacciatore di bufale è una perdita di tempo e anzi fa più male che bene? Devo smettere, per il bene dell’umanità, perché la scienza dice che noi debunker facciamo solo danni?

Dai toni molto vivaci usati dal professor Quattrociocchi si direbbe proprio di sì. Frasi come “nonostante queste evidenze, milioni di dollari sono stati spesi in soluzioni che chiunque con un minimo di onestà intellettuale avrebbe riconosciuto come fallimentari” sono facilmente interpretabili in questo senso. Ma bisogna fare attenzione a cosa intende esattamente il professore con “fact-checking”: lui parla specificamente di situazioni [nel podcast dico “soluzioni” – errore mio, che per ragioni tecniche non posso correggere] in cui il debunker, quello che vorrebbe smentire le falsità presentando i fatti, va a scrivere quei fatti nei gruppi social dedicati alle varie tesi di complotto. In pratica, è come andare in casa dei terrapiattisti a dire loro che hanno tutti torto e che la Terra è una sfera: non ha senso aspettarsi che questo approccio abbia successo e si venga accolti a braccia aperte come portatori di luce e conoscenza.

Anche senza il conforto dei numeri e dei dati raccolti da Quattrociocchi e dai suoi colleghi, è piuttosto ovvio che un fact-checking del genere non può che fallire: tanto varrebbe aspettarsi che andare a un derby, sedersi tra i tifosi della squadra avversaria e tessere le lodi della propria squadra convinca tutti a cambiare squadra del cuore. Ma il fact-checking non consiste soltanto nell’andare dai complottisti; anzi, i debunker evitano accuratamente questo approccio.

Il fact-checking, infatti, non si fa per chi è già parte di uno schieramento o dell’altro. Si fa per chi è ancora indeciso e vuole informarsi, per poi prendere una posizione, e in questo caso non è affatto inutile, perché fornisce le basi fattuali che rendono perlomeno possibile una decisione razionale.

Del resto, lo stesso articolo scientifico del professor Quattrociocchi, e il suo commento sul Corriere della Sera, sono in fin dei conti due esempi di fact-checking: su una piattaforma pubblica presentano i dati di fatto su un tema e li usano per smentire una credenza molto diffusa. Se tutto il fact-checking fosse inutile, se davvero presentare i fatti non servisse a nulla e fosse anzi controproducente, allora sarebbero inutili, o addirittura pericolosi, anche gli articoli del professore.


Resta la questione delle soluzioni al problema sempre più evidente dei danni causati dalla disinformazione e dalla malinformazione circolante sui social e anzi incoraggiata e diffusa anche da alcuni proprietari di questi social, come Elon Musk.

Il professor Quattrociocchi scrive che “L’unico antidoto possibile, e lo abbiamo visto chiaramente, è rendere gli utenti consapevoli di come interagiamo sui social.” Parole assolutamente condivisibili, con un piccolo problema: non spiegano come concretamente arrivare a rendere consapevoli gli utenti di come funzionano realmente i social network.

Sono ormai più di vent’anni che esistono i social network, e finora i tentativi di creare questa consapevolezza si sono tutti arenati. Non sono bastati casi clamorosi come quelli di Cambridge Analytica; non è bastata la coraggiosa denuncia pubblica, nel 2021, da parte di Frances Haugen, data scientist di Facebook, del fatto che indignazione e odio sono i sentimenti che alimentano maggiormente il traffico dei social e quindi i profitti di Meta e di tutti i social network. Come dice anche il professor Quattrociocchi insieme a numerosi altri esperti, “[s]i parla di fake news come se fossero il problema principale, ignorando completamente che è il modello di business delle piattaforme a creare le condizioni per cui la disinformazione prospera.”

La soluzione, insomma, ci sarebbe, ma è troppo radicale per gran parte delle persone: smettere di usare i social network, perlomeno quelli commerciali, dove qualcuno controlla chi è più visibile e chi no e decide cosa vediamo e ha convenienza a soffiare sul fuoco della disinformazione. Le alternative prive di controlli centrali non mancano, come per esempio Mastodon al posto di Threads, X o Bluesky, e Pixelfed al posto di Instagram, ma cambiare social network significa perdere i contatti con i propri amici se non migrano anche loro, e quindi nonostante tutto si finisce per restare dove si è, turandosi il naso. Fino al momento in cui non si sopporta più: il 20 gennaio, per esempio, è la data prevista per #Xodus, l’uscita in massa da X da parte di politici, organizzazioni ambientaliste, giornalisti* e utenti di ogni genere.

* La Federazione Europea dei Giornalisti (European Federation of Journalists, EFJ), la più grande organizzazione di giornalisti in Europa, che rappresenta oltre 295.000 giornalisti, ha annunciato che non pubblicherà più nulla su X dal 20 gennaio 2025: “Come molte testate europee (The Guardian, Dagens Nyheter, La Vanguardia, Ouest-France, Sud-Ouest, ecc.) and e organizzazioni di giornalisti, come l’Associazione dei Giornalisti Tedeschi (DJV), la EFJ ritiene di non poter più partecipare eticamente a un social network che è stato trasformato dal suo proprietario in una macchina di disinformazione e propaganda.”

Funzionerà? Lo vedremo molto presto.

Aggiornamento (2025/01/20)

Il quotidiano francese Le Monde ha annunciato di aver interrotto la condivisione dei propri contenuti su X, dove ha 11,1 milioni di follower.