Salta al contenuto principale

Podcast

Podcast RSI – A che punto è l’auto a guida autonoma? A San Francisco è già in strada ma non in vendita

Questo è il testo della puntata del 3 febbraio 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS.


[CLIP: rumori del traffico veicolare di San Francisco, registrati da me pochi giorni fa in loco]

Pochi giorni fa sono stato a San Francisco, una delle poche città al mondo nelle quali delle automobili completamente prive di conducente, guidate da speciali computer di bordo, circolano in mezzo al normale traffico veicolare e pedonale.

Sono i taxi di Waymo, un’azienda che da anni sta lavorando alla guida autonoma e da qualche tempo offre appunto un servizio commerciale di trasporto passeggeri a pagamento. I clienti usano un’app per prenotare la corsa e un’auto di Waymo li raggiunge e accosta per accoglierli a bordo, come un normale taxi, solo che al posto del conducente non c’è nessuno. Il volante c’è, ma gira da solo, e l’auto sfreccia elettricamente e fluidamente nel traffico insieme ai veicoli convenzionali. È molto riconoscibile, perché la selva di sensori che le permettono di fare tutto questo sporge molto cospicuamente dalla carrozzeria in vari punti e ricopre il tetto della vettura, formando una sorta di cappello high-tech goffo e caratteristico, e queste auto a San Francisco sono dappertutto: uno sciame silenzioso di robot su ruote che percorre incessantemente le scoscese vie della città californiana.*

* Purtroppo non sono riuscito a provare questi veicoli: l’app necessaria per prenotare un taxi di Waymo è disponibile solo per chi ha l‘App Store o Play Store statunitense e non ho avuto tempo di organizzarmi con una persona del posto che la installasse e aprisse un account.

Ma allora la sfida tecnologica della guida autonoma è risolta e dobbiamo aspettarci prossimamente “robotaxi” come questi anche da noi? Non proprio; c’è ancora letteralmente tanta strada da fare. Provo a tracciarla in questa puntata, datata 3 febbraio 2025, del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Benvenuti. Io sono Paolo Attivissimo.

[SIGLA di apertura]


È il sogno di ogni pendolare a quattro ruote: un’auto che si guida da sola, nella quale è sufficiente salire a bordo e dirle la destinazione desiderata per poi potersi rilassare completamente per tutto il viaggio, senza dover gestire code o ingorghi e senza trascorrere ore frustranti dietro il volante. Un sogno che ha radici lontane: i primi esperimenti di guida almeno parzialmente autonoma iniziarono alla fine degli anni Settanta del secolo scorso e furono svolti in Germania, Giappone e Italia [Computerhistory.org]. Ma si trattava di veicoli costosissimi, stracarichi di computer che ne riempivano il bagagliaio, e comunque funzionavano solo su strade semplici e ben demarcate. Anche così, ogni tanto dovevano arrendersi e chiedere aiuto umano.

Ma le strade di una città sono invece complesse, caotiche, piene di segnaletica da decodificare e di ostacoli che possono comparire all’improvviso e confondere i sistemi di riconoscimento automatici: per esempio un pedone che attraversa la strada, un cantiere, un’ambulanza o anche semplicemente un riflesso dell’auto stessa in una vetrata oppure una figura umana stampata sul portellone posteriore di un camion o su un cartellone pubblicitario.

Per cominciare a interpretare tutti questi fattori è stato necessario attendere a lungo che migliorasse il software e diventasse meno ingombrante l’hardware: il primo viaggio su strada urbana normale di un’automobile autonoma, senza conducente e senza scorta di polizia, risale a meno di dieci anni fa ad opera del progetto di Google per la guida autonoma, poi trasformatosi in Waymo.

Waymo è stata la prima a offrire un servizio commerciale di veicoli autonomi su strade urbane, a dicembre 2018 [Forbes], dopo dieci anni di sperimentazione, con un servizio di robotaxi limitato ad alcune zone della città statunitense di Phoenix e comunque all’epoca con un conducente d’emergenza a bordo. Nel 2021 a Shenzen, in Cina, ha debuttato il servizio di robotaxi gestito da Deeproute.ai. Nel 2022 a Waymo si è affiancata la concorrente Cruise, che è stata la prima a ottenere il permesso legale di fare a meno della persona dietro il volante, pronta a intervenire, in un servizio commerciale [CNBC].

Anche Uber aveva provato a entrare nel settore della guida autonoma, ma aveva sospeso la sperimentazione dopo che uno dei suoi veicoli di test aveva investito e ucciso un pedone, Elaine Herzberg, nel 2018 in Arizona, nonostante la presenza di un supervisore umano a bordo.

Probabilmente avete notato che fra i nomi che hanno segnato queste tappe dell’evoluzione della guida autonoma manca quello di Tesla, nonostante quest’azienda sia considerata da una buona parte dell’opinione pubblica come quella che fabbrica auto che guidano da sole. Non è affatto così: anche se il suo software si chiama Full Self-Drive, in realtà legalmente il conducente è tenuto a restare sempre pronto a intervenire.*

* Non è solo un requisito legale formale, mostrato esplicitamente sullo schermo a ogni avvio: deve proprio farlo, perché ogni tanto FSD sbaglia molto pericolosamente, anche nella versione più recente chiamata ora FSD (Supervised), come ben documentato da questa prova pratica di Teslarati di gennaio 2025.

E la famosa demo del 2016 in cui una Tesla effettuava un tragitto urbano senza interventi della persona seduta al posto di guida era una messinscena, stando a quanto è emerso in tribunale. A fine gennaio 2025 Elon Musk ha dichiarato che Tesla offrirà la guida autonoma senza supervisione a Austin, in Texas, a partire da giugno di quest’anno, a titolo sperimentale.

Ma come mai Tesla è rimasta così indietro rispetto alle concorrenti? Ci sono due motivi: uno tecnico, molto particolare, e uno operativo e poco pubblicizzato.


Ci sono fondamentalmente due approcci distinti alla guida autonoma. Uno è quello di mappare in estremo dettaglio e preventivamente le strade e consentire ai veicoli di percorrere soltanto le strade mappate in questo modo, il cosiddetto geofencing o georecinzione, dotando le auto di un assortimento di sensori di vario genere, dalle telecamere ai LiDAR, ossia sensori di distanza basati su impulsi laser.

Questo consente al veicolo [grazie al software di intelligenza artificiale che ha a bordo] di “capire” con molta precisione dove si trova, che cosa ha intorno a sé in ogni momento e di ricevere in anticipo, tramite aggiornamenti continui via Internet, segnalazioni di cantieri o di altri ostacoli che potrà incontrare.

Questa è la via scelta da Waymo e Cruise, per esempio, e funziona abbastanza bene, tanto che le auto di queste aziende sono già operative e hanno un tasso di incidenti estremamente basso, inferiore a quello di un conducente umano medio [CleanTechnica]. Ma è anche una soluzione molto costosa: richiede sensori carissimi e ingombranti e impone un aggiornamento costante della mappatura, ma soprattutto limita le auto a zone ben specifiche.

Le zone fruibili di San Francisco a gennaio 2025 (Waymo).

Anche a San Francisco, per esempio, Waymo è usabile soltanto in alcune parti della città [Waymo]*, e per aggiungere al servizio un’altra città bisogna prima mapparla tutta con precisione centimetrica.

Waymo sta iniziando a provare le proprie auto sulle autostrade (freeway) intorno a Phoenix oltre che in città, ma per ora trasportano solo dipendenti dell’azienda [Forbes].
Una mia ripresa di uno dei tantissimi veicoli autonomi di Waymo che abbiamo incontrato girando per la città.

L’altro approccio consiste nell’usare l’intelligenza artificiale a bordo del veicolo per decifrare i segnali che arrivano dai sensori e ricostruire da quei segnali la mappa tridimensionale di tutto quello che sta intorno all’auto. Questo evita tutto il lavoro preventivo di mappatura e quello di successivo aggiornamento e consente al veicolo di percorrere qualunque strada al mondo, senza restrizioni.

Questa è la via che Elon Musk ha deciso per Tesla, rinunciando inoltre ai sensori LIDAR per contenere i costi complessivi dei veicoli e usando soltanto le immagini provenienti dalle telecamere perimetrali per riconoscere gli oggetti e “capire” la situazione di tutti gli oggetti circostanti e come gestirla. Ma il riconoscimento fatto in questo modo non è ancora sufficientemente maturo, e questo fatto ha portato al ritardo di Tesla di vari anni rispetto alle aziende concorrenti.

Quale sia la soluzione migliore è ancora tutto da vedere. Waymo e Cruise stanno investendo cifre enormi, e nonostante le loro auto siano strapiene di sensori che costano più del veicolo stesso ogni tanto si trovano in situazioni imbarazzanti.

A ottobre 2023, un’auto di Cruise ha trascinato per alcuni metri un pedone che le era finito davanti dopo essere stato urtato da un’automobile guidata da una persona [Cruise]. A giugno 2024, un robotaxi di Waymo a Phoenix è andato a sbattere contro un palo telefonico mentre cercava di accostare per accogliere un cliente, perché il palo era piantato sul bordo della superficie stradale invece di sorgere dal marciapiedi e il software non era in grado di riconoscere un palo. Non si è fatto male nessuno e il problema è stato risolto con un aggiornamento del software, ma è un ottimo esempio del motivo per cui queste auto hanno bisogno di una mappatura preventiva incredibilmente dettagliata prima di poter circolare [CNN].

A dicembre 2024, inoltre, un cliente Waymo si è trovato intrappolato a bordo di uno dei taxi autonomi dell’azienda, che continuava a viaggiare in cerchio in un parcheggio senza portarlo a destinazione [BBC]. Ha dovuto telefonare all’assistenza clienti per farsi dire come ordinare al veicolo di interrompere questo comportamento anomalo, e a quanto pare non è l’unico del suo genere, visto che è diventato virale un video in cui un’altra auto di Waymo continua a girare ad alta velocità su una rotonda senza mai uscirne, fortunatamente senza nessun cliente a bordo [Reddit].

Gli episodi di intralcio al traffico da parte di veicoli autonomi vistosamente in preda allo smarrimento informatico sono sufficientemente frequenti da renderli impopolari fra le persone che abitano e soprattutto guidano nelle città dove operano i robotaxi [BBC].

A San Franscisco, un’auto di Waymo ignora gli addetti che stanno cercando di evitare che i veicoli (autonomi o meno) finiscano in una grossa buca allagata, a febbraio 2025 [ABC7/Boingboing].

Del resto, dover subire per tutta la notte per esempio il concerto dei clacson di un gruppo di auto Waymo parcheggiate e impazzite, come è successo a San Francisco l’estate scorsa, non suscita certo simpatie nel vicinato [TechCrunch].

Per risolvere tutti questi problemi, Waymo e Cruise ricorrono a un trucco.


Se ne parla pochissimo, ma di fatto quando un’auto autonoma di queste aziende non riesce a gestire da sola una situazione, interviene un guidatore umano remoto. In pratica in questi casi il costoso gioiello tecnologico diventa poco più di una grossa automobilina radiocomandata. Lo stesso farà anche Tesla con i suoi prossimi robotaxi, stando ai suoi annunci pubblici di ricerca di personale [Elettronauti].

È una soluzione efficace ma imbarazzante per delle aziende che puntano tutto sull’immagine di alta tecnologia, tanto che sostanzialmente non ne parlano* [BBC] e sono scarsissime le statistiche sulla frequenza di questi interventi da parte di operatori remoti: Cruise ha dichiarato che è intorno allo 0,6% del tempo di percorrenza, ma per il resto si sa ben poco.

*Uno dei pochi post pubblici di Waymo sui suoi guidatori remoti o fleet response agent spiega che l’operatore remoto non comanda direttamente il volante ma indica al software di bordo quale percorso seguire o quale azione intraprendere.
Un video di Waymo mostra un intervento dell’operatore remoto e rivela come il software di bordo rappresenta l’ambiente circostante.

Lo 0,6% può sembrare pochissimo, ma significa che l’operatore umano interviene in media per un minuto ogni tre ore. Se un ascensore si bloccasse e avesse bisogno di un intervento manuale una volta ogni tre ore per farlo ripartire, quanti lo userebbero serenamente?

Per contro, va detto che pretendere la perfezione dalla guida autonoma è forse utopico; e sarebbe già benefico e accettabile un tasso di errore inferiore a quello dei conducenti umani. Nel 2023 in Svizzera 236 persone sono morte in incidenti della circolazione stradale e ne sono rimaste ferite in modo grave 4096. Quei 236 decessi sono la seconda cifra più alta degli ultimi cinque anni, e il numero di feriti gravi è addirittura il più alto degli ultimi dieci anni [ACS; BFU.ch]. Se la guida autonoma può ridurre questi numeri, ben venga, anche qualora non dovesse riuscire ad azzerarli.

Vedremo anche da noi scene come quelle statunitensi? Per ora sembra di no. È vero che il governo svizzero ha deciso che da marzo 2025 le automobili potranno circolare sulle autostrade nazionali usando sistemi di guida assistita (non autonoma) che consentono la gestione automatica della velocità, della frenata e dello sterzo, ma il conducente resterà appunto conducente e dovrà essere sempre pronto a riprendere il controllo quando necessario.

I singoli cantoni potranno designare alcuni percorsi specifici sui quali potranno circolare veicoli autonomi, senza conducente ma monitorati da un centro di controllo. Inoltre presso i parcheggi designati sarà consentita la guida autonoma, ma solo nel senso che l’auto potrà andare a parcheggiarsi da sola, senza conducente a bordo. Di robotaxi che circolano liberamente per le strade, per il momento, non se ne parla [Swissinfo].*

* In Italia, a Brescia, è iniziata la sperimentazione di un servizio di car sharing che usa la guida autonoma. Finora il singolo esemplare di auto autonoma, una 500 elettrica dotata di un apparato di sensori molto meno vistoso di quello di Waymo, ha percorso solo un chilometro in modalità interamente autonoma, è limitato a 30 km/h ed è monitorato sia da un supervisore a bordo, sia da una sala di controllo remota. È la prima sperimentazione su strade pubbliche aperte al traffico in Italia [Elettronauti].

Insomma, ancora per parecchi anni, se vogliamo assistere a scene imbarazzanti e pericolose che coinvolgono automobili, qui da noi dovremo affidarci al talento negativo degli esseri umani.

Fonti aggiuntive

Welcome To ‘Waymo One’ World: Google Moon Shot Begins Self-Driving Service—With Humans At The Wheel For Now, Forbes (2018)

Where to? A History of Autonomous Vehicles, Computerhistory.org (2014)

Waymo Road Trip Visiting 10+ Cities in 2025, CleanTechnica (2025)

Waymo employees can hail fully autonomous rides in Atlanta now, TechCrunch (2025)

Waymo to test its driverless system in ten new cities in 2025, Engadget (2025)

Waymo, Cruise vehicles have impeded emergency vehicle response 66 times this year: SFFD, KRON4 (2023)

How robotaxis are trying to win passengers’ trust, BBC (2024)

Bad Week for Unoccupied Waymo Cars: One Hit in Fatal Collision, One Vandalized by Mob, Slashdot (2025)

Hidden Waymo feature let researcher customize robotaxi’s display, TechCrunch (2025)

Tesla’s Autonomous Driving Strategy Stranded By Technological Divergence, CleanTechnica (2025)

Zeekr RT, the robotaxi built for Waymo, has the tiniest wipers, TechCrunch (2025)

Should Waymo Robotaxis Always Stop For Pedestrians In Crosswalks?, Slashdot (2025)

Podcast RSI – Informatici in campo per salvare i dati scientifici cancellati dal governo Trump

Questo è il testo della puntata del 10 febbraio 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS.


Siamo a fine gennaio 2025. In tutti gli Stati Uniti e anche all’estero, scienziati, ricercatori, studenti, tecnici informatici si stanno scambiando frenetici messaggi di allarme: salvate subito una copia dei vostri dati pubblicati sui siti governativi statunitensi. È l’inizio di una maratona digitale collettiva per mettere in salvo dati sanitari, statistici, sociali, storici, climatici, tecnici ed economici che stanno per essere cancellati in una purga antiscientifica che ha pochi precedenti: quella derivante dalla raffica di ordini esecutivi emessi dalla presidenza Trump.

Persino la NASA è coinvolta e il 22 gennaio diffonde ai dipendenti l’ordine di “mollare tutto” [“This is a drop everything and reprioritize your day request”] e cancellare dai siti dell’ente spaziale, entro il giorno stesso, qualunque riferimento a minoranze, donne in posizione di autorità, popolazioni indigene, accessibilità, questioni ambientali e molti altri temi per rispettare questi ordini esecutivi [404 Media].

Per fortuna molti dei partecipanti a questa maratona si sono allenati in precedenza e sono pronti a scattare, e le risorse tecniche per sostenerli non mancano.

Questa è la storia di questa corsa per salvare scienza, conoscenza e cultura. E non è una corsa che riguarda solo gli Stati Uniti e che possiamo contemplare con inorridito distacco, perché piaccia o meno è lì che di fatto si definiscono gli standard tecnici e scientifici mondiali e si svolge gran parte della ricerca che viene utilizzata in tutto il mondo.

Benvenuti alla puntata del 10 febbraio 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica… e questa è decisamente una storia strana e difficile da raccontare. Io sono Paolo Attivissimo.

[SIGLA di apertura]


La vastità e pervasività della cancellazione e riscrittura dei contenuti dei siti governativi statunitensi in corso dopo l’elezione del presidente Trump è difficile da comprendere guardando soltanto i suoi numeri. Secondo il New York Times, sono scomparse oltre 8000 pagine web di informazione sparse su una dozzina di siti governativi [NYT]. Inoltre sono svanite almeno 2000 raccolte di dati [404 Media]. Dati scientifici che riguardano le epidemie in corso, l’inquinamento e il clima, per esempio.

Conteggio dei dataset governativi su Data.gov prima e dopo gli ordini di Trump [404 Media].

Va detto che ogni avvicendamento di un’amministrazione statunitense comporta qualche modifica dei dati governativi disponibili, per rispecchiare gli orientamenti politici di chi è stato eletto, ma è la scala e la natura delle modifiche attualmente in atto che spinge molte autorità scientifiche, solitamente sobrie e compassate, a protestare pubblicamente e a paragonare la situazione di oggi a quella del romanzo distopico 1984 di George Orwell [Salon.com], alle censure sovietiche o ai roghi di intere biblioteche di libri scientifici da parte del regime nazista in Germania nel 1933 [Holocaust Memorial Day Trust; Wikipedia].

Quando riviste scientifiche prestigiosissime come Nature o il British Medical Journal si sentono in dovere di scendere in campo, vuol dire che la situazione è grave.

Non ritireremo articoli pubblicati, se un autore ce lo chiede perché contengono cosiddette parole bandite” scrive il British Medical Journal, aggiungendo che le buone prassi scientifiche e l’integrità professionale non cederanno di fronte a ordini di imbavagliamento o soppressione o capricci autoritari […] Se c’è qualcosa che va proibito, è l’idea che le riviste mediche e scientifiche, il cui dovere è rappresentare integrità ed equità, debbano piegarsi a censure politiche o ideologiche”, conclude il BMJ.

Ma non siamo nel 1933. Non si bruciano più vistosamente in piazza i libri malvisti dal potere. Oggi si danno ordini esecutivi e i database sanitari spariscono silenziosamente con un clic, per cui è facile non rendersi conto della portata delle istruzioni impartite dall’amministrazione Trump. E i numeri non aiutano a capire questa portata: come in ogni grande disastro, sono troppo grandi e astratti per essere compresi realmente. Forse tutto diventa più chiaro citando qualche caso specifico e concreto.


Prendiamo per esempio un argomento ben distante dagli schieramenti politici come l’astronomia. In Cile c’è il modernissimo Osservatorio Vera Rubin, intitolato all’omonima astronoma statunitense e gestito dalla National Science Foundation del suo paese. Il sito di quest’osservatorio ospitava questa frase:

La scienza è ancora un campo dominato dagli uomini, ma l’Osservatorio Rubin si adopera per aumentare la partecipazione delle donne e di altre persone che storicamente sono state escluse dalla scienza, accoglie chiunque voglia contribuire alla scienza, e si impegna a ridurre o eliminare le barriere che escludono i meno privilegiati.”

Questa frase, che non sembrerebbe essere particolarmente controversa, è stata rimossa e riscritta per rispettare gli ordini esecutivi del presidente Trump e adesso parla della dominazione maschile della scienza come se fosse una cosa passata [“what was, during her career, a very male-dominated field”] [ProPublica].

Oppure prendiamo il Museo Nazionale di Crittologia dell’NSA, che sta ad Annapolis, nel Maryland. La scienza dei codici segreti parrebbe forse ancora più lontana dalla politica di quanto lo sia l’astronomia, ma lo zelo degli esecutori degli ordini di Trump è arrivato anche lì: dei pannelli informativi che raccontavano il ruolo delle donne e delle persone di colore nella crittografia sono stati coperti in fretta e furia con fogli di carta da pacchi [Mark S. Zaid su X], rimossi solo dopo che la grossolana censura è stata segnalata ed è diventata virale sui social network.*

* La foga (o la paura di perdere il posto di lavoro) ha fatto addirittura cancellare un video che spiega il concetto grammaticale di pronome [404 Media].

Quelli che ho raccontato sono piccoli esempi, che illustrano la natura pervasiva e meschina* degli effetti delle direttive del governo Trump. Ma ovviamente la preoccupazione maggiore riguarda i grandi archivi di dati scientifici su argomenti che l’attuale amministrazione americana considera inaccettabili perché menzionano anche solo di striscio questioni di genere, di discriminazione e di accessibilità.

* 404 Media usa “pettiness”, ossia “meschinità”, per descrivere alcune delle cancellazioni dei siti governativi documentate tramite Github.

Il CDC, l’agenzia sanitaria federale statunitense, ha eliminato moltissime pagine di risorse scientifiche dedicate all’HIV, alle malattie sessualmente trasmissibili, all’assistenza alla riproduzione, alla salute delle minoranze, alla salute mentale dei minori, al monitoraggio dell’influenza, e ha ordinato a tutti i propri ricercatori di rimuovere dai propri articoli in lavorazione termini come “genere, transgender, persona in gravidanza, LGBT, transessuale, non binario, biologicamente maschile, biologicamente femminile”. La rimozione non riguarda solo gli articoli pubblicati dall’ente federale ma anche qualunque articolo da inviare a riviste scientifiche [Inside Medicine; Washington Post].

Screenshot del sito del CDC [Dr Emma Hodcroft su Mastodon].

Il NOAA, l’ente federale per la ricerca atmosferica e oceanica degli Stati Uniti, ha ordinato di eliminare persino la parola “empatia” da tutti i propri materiali [Mastodon].*

* La National Science Foundation, che finanzia una quota enorme della ricerca scientifica in USA, ha sospeso i finanziamenti a qualunque progetti che tocchi in qualche modo questioni di diversità o uguaglianza [Helen Czerski su Mastodon]. La sezione “Razzismo e salute” del CDC non esiste più [Archive.org; CDC.gov]. Dal sito della NASA sono stati rimossi moduli educativi sull‘open science [Archive.org; NASA]. Dal sito della Casa Bianca sono scomparsi la versione in spagnolo e la dichiarazione d’intenti di renderlo accessibile a persone con disabilità; l’Office of Gun Violence Prevention è stato cancellato [NBC].

Di fatto, qualunque ricerca scientifica statunitense che tocchi anche solo vagamente questi temi è bloccata, e anche le ricerche su altri argomenti che però usano dati del CDC oggi rimossi sono a rischio; è il caso, per esempio, anche delle indagini demografiche, che spesso contengono dati sull’orientamento sessuale, utili per valutare la diffusione di malattie nei vari segmenti della popolazione. Il Morbidity and Mortality Weekly Report, uno dei rapporti settimanali fondamentali del CDC sulla diffusione delle malattie, è sospeso per la prima volta da sessant’anni. È una crisi scientifica che imbavaglia persino i dati sull’influenza aviaria [Salon.com; KFF Health News], perché gli ordini esecutivi di Trump vietano in sostanza agli enti sanitari federali statunitensi di comunicare con l’Organizzazione Mondiale della Sanità [AP].

Ma c’è un piano informatico per contrastare tutto questo.


Il piano in questione si chiama End of Term Archive: è un progetto nato nel 2008 che archivia i dati dei siti governativi statunitensi a ogni cambio di amministrazione [Eotarchive.org]. È gestito dai membri del consorzio internazionale per la conservazione di Internet, che includono le biblioteche nazionali di molti paesi, Svizzera compresa, e a questa gestione prendono parte anche i membri del programma statunitense di conservazione dei dati digitali (NDIIPP).

Non è insomma una soluzione d’emergenza nata specificamente per la presidenza attuale. Nel 2020, durante la transizione da Trump a Biden, l’End of Term Archive raccolse oltre 266 terabyte di dati, che sono oggi pubblicamente accessibili presso Webharvest.gov insieme a quelli delle transizioni precedenti.

Questa iniziativa di conservazione si appoggia tecnicamente all’Internet Archive, una delle più grandi biblioteche digitali del mondo, fondata dall’imprenditore informatico Brewster Kahle come società senza scopo di lucro nell’ormai lontano 1996 e situata fisicamente a San Francisco, con copie parziali in Canada, Egitto e Paesi Bassi e accessibile online presso Archive.org.

Questa colossale biblioteca online archivia attualmente più di 866 miliardi di pagine web oltre a decine di milioni di libri, video, notiziari televisivi, software, immagini e suoni. Le raccolte di dati delle transizioni presidenziali statunitensi sono ospitate in una sezione apposita di Archive.org; quella del 2024, già disponibile, contiene oltre mille terabyte di dati.

Ma molti giornalisti, ricercatori e scienziati hanno provveduto a scaricarsi copie personali dei dati governativi che temevano di veder sparire, passando notti insonni a scaricare e soprattutto catalogare terabyte di dati [The Atlantic; The 19th News; Jessica Valenti; Nature]. Lo ha fatto anche l’Università di Harvard, mentre la Columbia University ha aggiornato il suo Silencing Science Tracker, una pagina che traccia i tentativi dei governi statunitensi di limitare o proibire la ricerca, l’educazione e la discussione scientifica dal 2016 in avanti.

È facile sottovalutare l’impatto pratico sulla vita di tutti i giorni di un ordine esecutivo che impone la riscrittura di un enorme numero di articoli e di pagine Web informative su temi scientifici e in particolare medici. La virologa Angela Rasmussen spiega in un’intervista al sito Ars Technica che non è semplicemente una questione di cambiare della terminologia o riscrivere qualche frase e tutto tornerà a posto: vengono rimosse informazioni critiche. Per esempio, i dati governativi statunitensi sulla trasmissione dell’Mpox, la malattia nota precedentemente come “vaiolo delle scimmie”, sono stati censurati rimuovendo ogni riferimento agli uomini che hanno rapporti sessuali con uomini, dice Rasmussen. Queste persone “non sono le uniche a rischio negli Stati Uniti, ma sono quelle che hanno il maggior rischio di esposizione all’Mpox. Togliere il linguaggio inclusivo nasconde alle persone a rischio le informazioni che servirebbero a loro per proteggersi”.

La giornalista Jessica Valenti ha salvato e ripubblicato online documenti rimossi dall’amministrazione Trump e riguardanti la contraccezione, la pianificazione familiare, la salute sessuale, i vaccini, la violenza fra partner e altri argomenti assolutamente centrali nella vita di quasi ogni essere umano.

La presidenza Trump ha presentato la libertà di parola come uno dei propri mantra centrali, e uno degli ordini esecutivi che hanno portato a questo oscuramento, o oscurantismo se vogliamo chiamarlo con il suo vero nome, ha un titolo che parla di difesa delle donne e di “ripristino della verità biologica” (Defending Women from Gender Ideology Extremism and Restoring Biological Truth to the Federal Government). Censurare i fatti scientifici sulla salute e le informazioni che aiutano una donna a proteggersi è un modo davvero orwelliano di fare i paladini della libertà di espressione e i difensori delle donne.

George Orwell, in 1984, usava il termine doublethink (bipensiero o bispensiero nella traduzione italiana) per descrivere il meccanismo mentale che consente di ritenere vero un concetto e contemporaneamente anche il suo contrario. Sembra quasi che ci sia una tendenza diffusa a interpretare quel libro non come un monito ma come un manuale di istruzioni. Al posto dell’inceneritore delle notizie passate non più gradite al potere c’è il clic sull’icona del cestino, al posto della propaganda centralizzata c’è la disinformazione in mille rivoli lasciata correre o addirittura incoraggiata dai social network, e al posto dei teleschermi che sorvegliano a distanza ogni cittadino oggi ci sono gli smartphone e i dati raccolti su ciascuno di noi dai loro infiniti sensori, ma il concetto è lo stesso e gli effetti sono uguali: cambia solo lo strumento, che oggi è informatico.

Ed è ironico che sia proprio l’informatica a darci una speranza di conservare per tempi migliori quello che oggi si vuole invece seppellire. Forse conviene che ciascuno di noi cominci, nel proprio piccolo, a diventare un pochino hacker.

Fonti aggiuntive

The CDC’s Website Is Being Actively Purged to Comply With Trump DEI Order, 404 Media (2025)

CDC datasets uploaded before January 28th, 2025, Archive.org (2025)

BREAKING NEWS: CDC orders mass retraction and revision of submitted research across all science and medicine journals. Banned terms must be scrubbed, Inside Medicine (2025). Cita il concetto di vorauseilender Gehorsam, o “ubbidienza preventiva”

National Center for Missing & Exploited Children site scrubbed of transgender kids, Advocate.com (2025)

‘Breathtakingly Ignorant and Dangerous’: Trump’s DOT Orders Sweeping Purge of Climate, Gender, Race, Environmental Justice Initiatives, Inside Climate News (2025)

Trump scrubs all mention of DEI, gender, climate change from federal websites, The Register (2025)

Internet Archive played crucial role in tracking shady CDC data removals, Ars Technica (2025)

Researchers rush to preserve federal health databases before they disappear from government websites, The Journalist’s Resource (2025)

US Information Erasure Hurts Everyone, Human Rights Watch (2025)

Hot Topics in IPC: Avian Flu and Results From Trump’s Executive Orders, Infection Control Today (2025)

Podcast RSI – Emily Pellegrini, l’influencer virtuale che virtuale non era; deepfake per una truffa da 25 milioni di dollari

Questo articolo è importato dal mio blog precedente Il Disinformatico: l’originale (con i commenti dei lettori) è qui.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesGoogle PodcastsSpotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

Benvenuti alla puntata del 16 agosto 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo, e questa settimana vi porto due storie, e due notizie, che sembrano scollegate e appartenenti a due mondi molto distanti, ma hanno in realtà in comune un aspetto molto importante.

La prima storia riguarda una delle più pubblicizzate influencer virtuali, Emily Pellegrini, annunciata dai giornali di mezzo mondo come un trionfo dell’intelligenza artificiale, così attraente e realistica che viene contattata da celebri calciatori che la vogliono incontrare a cena e da ricchi imprenditori che le offrono vacanze di lusso pur di conoscerla, credendo che sia una persona reale, e accumula centinaia di migliaia di follower su Instagram. Ma oggi tutte le immagini che l’avevano resa celebre sui social sono scomparse.

La seconda storia riguarda invece una truffa da 25 milioni di dollari ai danni di una multinazionale, messa a segno tramite una videoconferenza in cui il direttore finanziario sarebbe stato simulato dai criminali, in voce e in video e in tempo reale, usando anche qui l’intelligenza artificiale così bene da ingannare persino i suoi stessi dipendenti.

Ma non è l’intelligenza artificiale l’aspetto che accomuna queste storie. È qualcosa di ben poco artificiale e purtroppo molto umano.

[SIGLA di apertura]

Siamo a fine settembre del 2023. Un’eternità di tempo fa, per i ritmi dello sviluppo frenetico dell’intelligenza artificiale. Su un sito per adulti, Fanvue, e su Instagram iniziano a comparire le foto sexy di Emily Pellegrini [instagram.com/emilypellegrini], una modella di 23 anni che vive a Los Angeles e fa l’influencer. Ma si tratta di una influencer particolare, perché è generata con l’intelligenza artificiale, anche se nelle foto che pubblica sembra una persona in carne e ossa.

Una delle “foto” di Emily Pellegrini. Notate i grattacieli completamente deformati sullo sfondo e l’incoerenza delle linee della piattaforma sulla quale si trova la persona raffigurata, segni tipici di immagini generate maldestramente con software di intelligenza artificiale.

Sei settimane dopo, l’11 novembre, Emily Pellegrini ha già 81.000 follower su Instagram [New York Post]. Ai primi di gennaio ne ha 175.000 [Corriere del Ticino], a metà gennaio sono già 240.000 [NZZ], e ne parlano i media di tutto il mondo [Daily MailripetutamenteFortuneDagospiaRepubblicaSternWelt.deRadio Sampaio], dicendo che il suo aspetto procace e fotorealistico ha tratto in inganno molti uomini “ricchi, potenti e di successo”, dice per esempio il Daily Mail britannico, aggiungendo che su Instagram la contattano “persone veramente famose, come calciatori, miliardari, campioni di arti marziali miste e tennisti” che “credono che sia reale” e “la invitano a Dubai per incontrarla e mangiare nei migliori ristoranti”. Una delle celebrità sedotte da Emily Pellegrini, scrive sempre il Daily Mail, è un imprecisato conoscente di Cristiano Ronaldo; un altro è una star del calcio tedesco di cui non viene fatto il nome.

Andamento della popolarità della stringa di testo “Emily Pellegrini” da settembre 2023 a oggi, secondo Google Trends.

Moltissime testate in tutto il mondo riportano fedelmente questi dettagli e non perdono l’occasione di pubblicare molte foto delle grazie abbondanti dell’influencer virtuale, ma c’è un piccolo problema: tutte queste presunte conquiste di Emily Pellegrini sono riferite da una sola fonte, il suo creatore, che fra l’altro vuole restare anonimo, e sono descritte in modo estremamente vago: nessun nome, ma solo frasi come “uno dei volti famosi, di cui non viene fatto il nome e che l’ha contattata, a quanto pare conosce Cristiano Ronaldo” [“One unnamed famous face who contact [sic] her allegedly knew Cristiano Ronaldo, the creator claimed”]

Che senso ha precisare che questo anonimo fan conosce Cristiano Ronaldo? Non fornisce nessuna informazione reale. Però permette di citare un nome famoso e associarlo a questa influencer per farla brillare di luce riflessa nella mente del lettore, che magari è distratto perché l’occhio gli sta cadendo altrove.

Questo espediente autopromozionale funziona, perché Emily Pellegrini viene citata dai media di mezzo pianeta come l’influencer che “fa innamorare i vip”, come titola Il Mattino, o “ha fatto innamorare calciatori e vip di tutto il mondo”, come scrive Repubblica, per citare giusto qualche esempio italofono. Ma di questo innamoramento collettivo non c’è la minima conferma. Ci sono solo le dichiarazioni straordinariamente vaghe del suo creatore senza nome.

Questo anonimo creatore della influencer virtuale racconta anche di aver “lavorato 14-16 ore al giorno” per riuscire a creare il volto, il corpo e i video di Emily Pellegrini con l’intelligenza artificiale. Ma anche qui qualcosa non quadra, perché a fine gennaio 2024 emerge un dato: alcune delle immagini di Emily Pellegrini, soprattutto quelle più realistiche, sono realistiche non per qualche rara maestria nell’uso dei software di intelligenza artificiale, ma perché sono semplicemente foto e video di donne reali, come per esempio quelle della modella Ella Cervetto (www.instagram.com/ellacervetto/), sfruttate senza il loro consenso [Radio FranceAbc.net.au, con esempi; Fanpage.it], sostituendo digitalmente il loro volto con un volto sintetico e tenendo tutto il resto del corpo intatto. In altre parole, un banale deepfake come tanti, fatto oltretutto a scrocco.

Le pose e le movenze così realistiche di Emily Pellegrini non sono generate dal software: sono prese di peso dai video reali di modelle reali. Una chiara violazione del copyright e uno sfruttamento spudorato del lavoro altrui.


Oggi il profilo Instagram di Emily Pellegrini [www.instagram.com/emilypellegrini] è praticamente vuoto. Tutte le foto sono scomparse. Restano solo 12 post, nei quali un uomo che si fa chiamare “Professor Ep” e dice di essere il creatore della modella virtuale – che in realtà tanto virtuale non era – propone un corso, naturalmente a pagamento, per insegnare agli altri a fare soldi creando modelle virtuali. Nessun accenno al fatto che l’insegnante ha usato i video e la fatica degli altri e ha adoperato  solo in parte l’intelligenza artificiale per guadagnare, dice lui, oltre un milione di dollari.

Lo stato attuale dell’account Instagram di Emily Pellegrini.

Fra l’altro, il corso del sedicente professore, che costava inizialmente mille dollari, ora è svenduto a circa duecento.

La pubblicità del corso promosso sull’account Instagram di Emily Pellegrini.

Lasciando da parte un momento i ragionevoli dubbi sull’etica e la competenza dimostrate fin qui dal Professor Ep, se per caso state pensando di lanciarvi anche voi nel settore immaginando di fare soldi facilmente in questa versione 2024 della febbre per il mining domestico delle criptovalute, beh, pensateci due volte.

I dati indicano infatti che fare soldi esclusivamente generando immagini di modelle virtuali è cosa assai rara. Ci sono alcune superstar del settore che guadagnano discretamente, ma il grosso degli aspiranti creatori e delle aspiranti creatrici fa la fame. Il mercato è saturo di gente che ci sta provando e fallendo.

Grazie ad alcune persone esperte del settore, ho constatato di persona che su piattaforme che promettono grandi guadagni tramite la vendita di immagini generate con l’intelligenza artificiale, come la piattaforma usata dal creatore di Emily Pellegrini, è sufficiente incassare trecento dollari nell’arco di un mese per trovarsi nel discutibile Olimpo del settore, ossia nella fascia del 10% dei creatori che guadagnano di più. Il restante 90%, in altre parole, guadagna di meno.

Gli incassi e il piazzamento di una influencer virtuale su Fanvue.

Molte influencer virtuali che nei mesi scorsi erano state segnalate dai media come le avanguardie emergenti di un nuovo fenomeno oggi non rendono visibile il numero dei like o dei follower, o addirittura questi dati vengono nascosti dalla piattaforma stessa, per non far vedere che non le sta seguendo praticamente nessuno e che i guadagni promessi sono solo un miraggio per molti.

Quelli che guadagnano davvero, invece, sono i fornitori dei servizi e dell’hardware necessario per generare queste immagini sintetiche, proprio come è avvenuto per le criptovalute. Quando si scatena una corsa all’oro, conviene sempre essere venditori di picconi.

Fonti aggiuntive e ulteriori dettagli:


La seconda storia di questo podcast arriva da Hong Kong. Siamo a febbraio del 2024, e scoppia la notizia di una truffa da 25 milioni di dollari ai danni di una multinazionale, effettuata con la tecnica del deepfake, la stessa usata nella storia precedente con altri scopi.

Un operatore finanziario che lavora a Hong Kong si sarebbe fatto sottrarre questa ragguardevolissima cifra perché dei truffatori avrebbero creato una versione sintetica del suo direttore finanziario, che stava a Londra, e l’avrebbero usata per impersonare questo direttore durante una videoconferenza di gruppo, nella quale anche gli altri partecipanti, colleghi dell’operatore, sarebbero stati simulati sempre con l’intelligenza artificiale, perlomeno stando alle dichiarazioni attribuite alla polizia di Hong Kong [Rthk.hk, con video del portavoce della polizia, Baron Chan; The Register].

Dato che tutti i partecipanti alla videochiamata sembravano reali e avevano le sembianze di colleghi, quando l’operatore ha ricevuto l’ordine di effettuare quindici transazioni verso cinque conti bancari locali, per un totale appunto di 25 milioni di dollari, ha eseguito le istruzioni, e i soldi hanno preso il volo.

L’ipotesi che viene fatta dalla polizia è che i truffatori abbiano scaricato dei video dei vari colleghi e li abbiano usati per addestrare un’intelligenza artificiale ad aggiungere ai video una voce sintetica ma credibile. Il malcapitato operatore si sarebbe accorto del raggiro solo quando ha chiamato la sede centrale dell’azienda per un controllo.

La notizia viene accolta con un certo scetticismo da molti addetti alla sicurezza informatica. Già simulare un singolo volto e una singola voce in maniera perfettamente realistica è piuttosto impegnativo, figuriamoci simularne due, tre o più contemporaneamente. La potenza di calcolo necessaria sarebbe formidabile. Non c’è per caso qualche altra spiegazione a quello che è successo?

[The Standard presenta una ricostruzione un po’ diversa degli eventi: solo il direttore finanziario sarebbe stato simulato e gli altri quattro o sei partecipanti sarebbero stati reali. “An employee of a multinational company received a message from the scammer, who claimed to be the “Chief Financial Officer” of the London head office, asking to join an encrypted virtual meeting with four to six staffers. The victim recalled that the “CFO” spent most of the time giving investment instructions, asking him to transfer funds to different accounts, and ending the meeting in a hurry. He found that he was cheated after he made 15 transactions totaling HK$200 million to five local accounts within a week and reported to the police. It was discovered that the speech of the “CFO” was only a virtual video generated by the scammer through deepfake. Police said other employees of the same company were also instructed to attend the meeting.”]

Otto mesi dopo, cioè pochi giorni fa, un esperto di sicurezza, Brandon Kovacs, affascinato da quella truffa milionaria, ha dimostrato alla conferenza di hacking DEF CON che in realtà una videoconferenza nella quale tutti i partecipanti, tranne la vittima, sono in realtà delle simulazioni indistinguibili dagli originaliè fattibile, ed è fattibile con apparecchiature piuttosto modeste e sicuramente alla portata economica di una banda di criminali che spera in un bottino di svariati milioni di dollari.

La parte più impegnativa di quest’impresa è procurarsi delle riprese video delle persone da simulare. Queste registrazioni servono per addestrare un’intelligenza artificiale su misura a generare un deepfake in tempo reale della persona specifica. Ma oggigiorno praticamente chiunque lavori in un’azienda ha ore e ore di riprese video che lo riguardano nel contesto ideale per addestrare un’intelligenza artificiale: le registrazioni delle videoconferenze di lavoro alle quali ha partecipato.

Kovacs ha messo alla prova quest’ipotesi: è possibile creare un clone video di qualcuno usando solo informazioni pubblicamente disponibili e software a sorgente aperto, cioè open source?

La risposta è sì: insieme a una collega, Alethe Denis, di cui aveva le registrazioni pubblicamente disponibili delle sue interviste, podcast e relazioni a conferenze pubbliche, ha addestrato un’intelligenza artificiale e si è procurato una fotocamera digitale reflex professionale, delle luci, una parrucca somigliante ai capelli della collega, un telo verde e del software, e ha usato il deepfake generato in tempo reale come segnale di ingresso del microfono e della telecamera per una sessione di Microsoft Teams, nella quale ha parlato con i figli della collega, spacciandosi per lei in voce e in video in diretta. I figli ci sono cascati completamente, e se un figlio non si accorge che sua mamma non è sua mamma, vuol dire che l’inganno è più che adeguato.

Creare un deepfake del genere, insomma, non è più un’impresa: il sito tecnico The Register nota che un software come DeepFaceLab, che permette di addestrare un modello per creare un deepfake di una persona specifica, è disponibile gratuitamente. Anche il software per l’addestramento della voce esiste in forma open source e gratuita: è il caso per esempio di RVC. E la scheda grafica sufficientemente potente da generare le immagini del volto simulato in tempo reale costa circa 1600 dollari.

In pratica, Kovacs ha creato un kit per deepfake pronto per l’uso [mini-demo su LinkedIn]. Un kit del genere moltiplicato per il numero dei partecipanti a una videoconferenza non è a buon mercato per noi comuni mortali, ma è sicuramente una spesa abbordabile per un gruppo di criminali se la speranza è usarlo per intascare illecitamente 25 milioni di dollari. E quindi l’ipotesi della polizia di Hong Kong è plausibile.

Non ci resta che seguire i consigli di questa stessa forza di polizia per prevenire questo nuovo tipo di attacco:

  • primo, avvisare che esiste, perché molti utenti non immaginano nemmeno che sia possibile;
  • secondo, non pensare che il numero dei partecipanti renda particolarmente difficile questo reato;
  • e terzo, abituare e abituarsi a confermare sempre le identità delle persone che vediamo in video facendo loro delle domande di cui solo loro possono sapere la risposta.

E così la demolizione della realtà fatta dall’intelligenza artificiale prosegue inesorabile in entrambe queste storie: non possiamo più fidarci di nessuna immagine, né fissa né in movimento, ma possiamo fare affidamento su una costante umana che non varia nel tempo: la capacità e la passione universale di trovare il modo di usare qualunque tecnologia per imbrogliare il prossimo.

Fonte aggiuntiva: Lights, camera, AI! Real-time deepfakes coming to DEF CONThe Register

Podcast RSI – Google blocca l’adblocker che blocca gli spot; iPhone, arrivano gli app store alternativi, ma solo in UE

Questo articolo è importato dal mio blog precedente Il Disinformatico: l’originale (con i commenti dei lettori) è qui.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesGoogle PodcastsSpotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.


Vi piacciono gli adblocker? Quelle app che bloccano le pubblicità e rendono così fluida e veloce l’esplorazione dei siti Web, senza continue interruzioni? O state pensando di installarne uno perché avete visto che gli altri navigano beatamente senza spot? Beh, se adoperate o state valutando di installare uno degli adblocker più popolari, uBlock Origin, c’è una novità importante che vi riguarda: Google sta per bloccarlo sul proprio browser Chrome. Ma c’è un modo per risolvere il problema.

Ve lo racconto in questa puntata del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica, e vi racconto anche cosa succede realmente con gli iPhone ora che l’App Store di Apple non è più l’unico store per le app per questi telefoni e quindi aziende come Epic Games, quella di Fortnite, sono finalmente libere di offrire i propri prodotti senza dover pagare il 30% di dazio ad Apple, anche se lo sono solo a certe condizioni complicate. Vediamole insieme. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Google sta per bloccare l’adblocker uBlock Origin

La pubblicità nei siti a volte è talmente invadente, specialmente sugli schermi relativamente piccoli degli smartphone, che diventa impossibile leggere i contenuti perché sono completamente coperti da banner, pop-up e tutte le altre forme di interruzione inventate in questi anni dai pubblicitari. Molti utenti si difendono da quest’invasione di réclame adottando una misura drastica: un adblocker, ossia un’app che si aggiunge al proprio browser sul computer, sul tablet o sul telefono e blocca le pubblicità.

Uno degli adblocker più popolari, con decine di milioni di utenti, è uBlock Origin, un’app gratuita disponibile per tutti i principali browser, come per esempio Edge, Firefox, Chrome, Opera e Safari. È scaricabile presso Ublockorigin.com ed è manutenuto ormai da un decennio dal suo creatore, Raymond Hill, che non solo offre gratuitamente questo software ma rifiuta esplicitamente qualunque donazione o sponsorizzazione. Questa sua fiera indipendenza, rimasta intatta mentre altri adblocker sono scesi a compromessi lasciando passare le “pubblicità amiche”, lo ha fatto diventare estremamente popolare.

Il sito di Ublock Origin.

Ovviamente i pubblicitari, e i siti che si mantengono tramite le pubblicità, non vedono di buon occhio questo successo degli adblocker, e quindi c’è una rincorsa tecnologica continua fra chi crea pubblicità che eludono gli ablocker in modi sempre nuovi e chi crea adblocker che cercano di bloccare anche quei nuovi modi.

Anche Google vive di pubblicità, e quindi in questa rincorsa non è affatto neutrale: se le pubblicità che Google vende non vengono viste dagli utenti, gli incassi calano. E infatti il suo browser Chrome, uno dei più usati al mondo, sta per bloccare l’adblocker uBlock Origin. I trentacinque milioni di utenti che lo adoperano su Chrome, stando perlomeno ai dati presenti sulla sua pagina nel Chrome Web Store [screenshot qui sotto], si troveranno quindi presto orfani, perché è in arrivo un aggiornamento importante della tecnologia di supporto alle estensioni in Chrome, fatto formalmente per aumentarne la sicurezza, l’efficienza e la conformità agli standard, ma questo aggiornamento ha anche un effetto collaterale non trascurabile: renderà uBlock Origin incompatibile con le prossime versioni di Chrome.

Ublock Origin nel Chrome Web Store.

Niente panico: al momento attuale uBlock Origin funziona ancora su Chrome, ma nelle prossime versioni del browser di Google verrà disabilitato automaticamente. Per un certo periodo, gli utenti avranno la possibilità di riattivarlo manualmente, ma poi sparirà anche questa opzione.

uBlock Origin continuerà a funzionare sugli altri browser, per cui un primo rimedio al problema per i suoi milioni di utenti è cambiare browser, passando per esempio a Firefox. Ma questo non è facile per gli utenti poco esperti e rischia di introdurre incompatibilità e disagi, perché la popolarità di Chrome spinge i creatori dei siti a realizzare siti Web che funzionano bene soltanto con Chrome, in una ripetizione distorta della celebre guerra dei browser che aveva visto protagonista Internet Explorer di Microsoft contro Netscape alla fine degli anni Novanta.

Raymond Hill, il creatore di uBlock Origin, non è rimasto con le mani in mano. Vista la tempesta in arrivo, ha già creato e reso disponibile, sempre gratuitamente, un nuovo adblocker che è compatibile con le prossime versioni di Google Chrome. Si chiama uBlock Origin Lite, ed è già disponibile sul Chrome Web Store. Trovate i link per scaricarlo su Disinformatico.info. Per ragioni tecniche non è potente ed efficace come il suo predecessore, per cui Raymond Hill non lo propone come aggiornamento automatico ma lo raccomanda come alternativa.

Ublock Origin Lite nel Chrome Web Store.

Se siete affezionati alla navigazione senza pubblicità grazie a uBlock Origin, insomma, avete due possibilità: cambiare browser oppure passare alla versione Lite di uBlock Origin, che è già stata installata in questo momento da circa trecentomila utenti.

In tutto questo non va dimenticato che molti dei siti e dei servizi più usati di Internet si mantengono grazie ai ricavi pubblicitari che gli adblocker impediscono, per cui se usate un adblocker di qualunque tipo vale la pena di dedicare qualche minuto ad autorizzare le pubblicità dei siti che vi piacciono e che volete sostenere, lasciando bloccati tutti gli altri, anche come misura di difesa contro i siti di fake news nei quali è facile incappare e che si mantengono con la pubblicità, per cui a loro non interessa che crediate o meno a quello che scrivono: l’importante per loro è che vediate le loro inserzioni pubblicitarie. Ed è così che paradossalmente gli adblocker diventano uno strumento contro la disinformazione e i truffatori.

Fonti aggiuntive: PC WorldWindowsCentral.

iPhone, arrivano gli app store alternativi. Ma solo in UE

Da quando è arrivato l’iPhone, una delle sue caratteristiche centrali è stata quella di avere un unico fornitore di app, cioè l’App Store della stessa Apple. Sugli smartphone delle altre marche, con altri sistemi operativi come per esempio Android, l’utente è sempre stato libero di procurarsi e installare app di qualunque provenienza con poche semplici operazioni, mentre Apple ha scelto la via del monopolio, aggirabile solo con procedure decisamente troppo complicate per l’utente medio.

Oggi, dopo sedici anni dal suo debutto nel 2008, l’App Store di Apple non è più l’unica fonte di app disponibile agli utenti degli smartphone di questa marca: debuttano infatti gli app store alternativi per gli iPhone. Ma solo per chi si trova nell’Unione Europea. Una volta tanto, una novità arriva prima in Europa che negli Stati Uniti, ma non scalpitate, le cose non sono così semplici come possono sembrare a prima vista.

La novità è merito delle norme europee sulla concorrenza, specificamente del Digital Markets Act o DMA, e delle azioni legali avviate da aziende come Spotify, Airbnb e in particolare Epic Games, la casa produttrice di Fortnite, aziende che contestavano non solo il regime di sostanziale monopolio ma anche il fatto che Apple, come Google, chiede il 30% dei ricavi delle app: una percentuale ritenuta troppo esosa da molti sviluppatori di app.

A questi costi si aggiungeva il fatto che alcuni tipi di app non erano disponibili nell’App Store di Apple per scelta politica, per esempio su pressioni di governi come quello cinese, indiano o russo, oppure per decisione spesso arbitraria di Apple, come per esempio nel caso degli emulatori di altri sistemi operativi (come il DOS) [The Verge], o nel caso dei browser alternativi (ammessi solo se usano lo stesso motore interno WebKit di Safari [The Verge]), oppure dei contenuti anche solo vagamente relativi alla sessualità, come nella vicenda emblematica dell’app che offriva un adattamento a fumetti dell’Ulisse di Joyce, che era stata respinta per aver osato mostrare dei genitali maschili appena accennati da un tratto di matita.

Apple ha giustificato finora queste restrizioni parlando di esigenze di qualità e di sicurezza, e in effetti i casi di app pericolose giunte nel suo App Store sono limitatissimi rispetto al fiume di malware e di spyware che si incontra facilmente su Google Play per il mondo Android, ma non sempre queste giustificazioni sono state documentate; l’argomentazione generale di Apple è stata che solo Apple era in grado di fornire una user experience buona, sicura e felice. In ogni caso, che ad Apple piaccia o no, l’Unione Europea ha disposto che gli utenti di iPhone e iPad abbiano la facoltà di procurarsi app anche attraverso app store alternativi.

E così oggi un utente Apple che si trovi in Unione Europea può rivolgersi ad app store come AltStoreSetappEpic GamesAptoide e altri, trovandovi app che non esistono nello store di Apple, soprattutto nel settore dei giochi e degli emulatori.

Una cosa inimmaginabile qualche anno fa: Aptoide per iOS.

Ma la procedura non è affatto semplice. Mentre per usare l’App Store di Apple l’utente non deve fare nulla, per usare gli store alternativi deve trovarsi materialmente nel territorio dell’Unione Europea, e quindi per esempio la Svizzera e il Regno Unito sono esclusi; deve impostare il paese o l’area geografica del proprio ID Apple su uno dei paesi o delle aree geografiche dell’Unione Europea, e deve aver installato iOS 17.4 o versioni successive. E una volta fatto tutto questo, deve poi andare al sito dello store alternativo ed eseguire tutta una serie di operazioni prima di poter arrivare finalmente alle app vere e proprie. La cosa è talmente complessa che Epic Games ha addirittura pubblicato su YouTube un video che spiega la procedura.

Lo store della Epic Games.

La faccenda si complica ulteriormente se per caso l’utente esce per qualunque motivo dall’Unione Europea: gli aggiornamenti delle app degli store alternativi saranno ammessi solo per 30 giorni, e ci sono anche altre limitazioni, elencate in un tediosissimo documento pubblicato da Apple che trovate linkato su Disinformatico.info.

[il documento di Apple elenca in dettaglio i paesi e le aree geografiche compatibili: Austria, Belgio, Bulgaria, Croazia, Cipro, Repubblica Ceca, Danimarca, Estonia, Finlandia (incluse Isole Åland), Francia (incluse Guyana francese, Guadalupa, Martinica, Mayotte, Reunion, Saint Martin), Germania, Grecia, Ungheria, Irlanda, Italia, Lettonia, Lituania, Lussemburgo, Malta, Paesi Bassi, Polonia, Portogallo (incluse Azzorre), Madeira, Romania, Slovacchia, Slovenia, Spagna (incluse Isole Canarie), Svezia]

All’atto pratico, è difficile che questa apertura forzata e controvoglia dell’App Store interessi a chi non è particolarmente esperto o appassionato, ma perlomeno stabilisce il principio che a differenza di quello che avviene altrove, nell’Unione Europea le grandi aziende del software non sono sempre in grado di fare il bello e il cattivo tempo.

Fonti aggiuntive: TechCrunchIGNThe VergeTechCrunch

Podcast RSI – L’IA ha troppa fame di energia. Come metterla a dieta

Questo articolo è importato dal mio blog precedente Il Disinformatico: l’originale (con i commenti dei lettori) è qui.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesGoogle PodcastsSpotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.


Una singola domanda a ChatGPT consuma grosso modo la stessa energia elettrica che serve per tenere accesa una lampadina comune per venti minuti e consuma dieci volte più energia di una ricerca in Google. La fame di energia dell’intelligenza artificiale online è sconfinata e preoccupante. Ma ci sono soluzioni che permettono di smorzarla.

Questa è la storia del crescente appetito energetico dei servizi online, dai social network alle intelligenze artificiali, del suo impatto ambientale e di come esiste un modo alternativo per offrire gli stessi servizi con molta meno energia e con molto più rispetto per la nostra privacy. Perché ogni foto, ogni documento, ogni testo che immettiamo in ChatGPT, Gemini, Copilot o altri servizi online di intelligenza artificiale viene archiviato, letto, catalogato, analizzato e schedato dalle grandi aziende del settore.

Benvenuti alla puntata del 30 agosto 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Una recente indagine pubblicata da NPR, una rinomata organizzazione indipendente non profit che comprende un migliaio di stazioni radio statunitensi ed è stata fondata dal Congresso degli Stati Uniti, fa il punto della situazione sulla nuova fame di energia dovuta al boom delle intelligenze artificiali.

Quando usiamo un servizio online di intelligenza artificiale, come ChatGPT, Copilot o Gemini, per citare i più diffusi, i complessi calcoli necessari per elaborare e fornirci la risposta non avvengono sul nostro computer, tablet o telefonino, per cui non ci accorgiamo di quanta energia viene consumata per restituirci quella risposta. Il nostro dispositivo non fa altro che prendere la nostra richiesta, inoltrarla via Internet a questi servizi, e ricevere il risultato, facendocelo vedere o ascoltare.

Ma dietro le quinte, le intelligenze artificiali online devono disporre di grandi data center, ossia strutture nelle quali vengono radunati computer appositi, dotati di processori dedicati all’intelligenza artificiale, che hanno dei consumi energetici prodigiosi. Secondo una stima riportata da NPR, una singola richiesta a ChatGPT usa all’incirca la stessa quantità di energia elettrica necessaria per tenere accesa una normale lampadina per una ventina di minuti. Immaginate milioni di persone che interrogano ChatGPT tutto il giorno, e pensate a venti minuti di lampadina accesa per ogni domanda che fanno a questa intelligenza artificiale.

Secondo un’analisi pubblicata dalla banca d’affari Goldman Sachs a maggio 2024, una richiesta fatta a ChatGPT consuma 2,9 wattora di energia elettrica, quasi dieci volte di più di una normale richiesta di ricerca fatta a Google [0,3 wattora] senza interpellare i suoi servizi di intelligenza artificiale. Questa analisi stima che il fabbisogno energetico mondiale dei data center che alimentano la rivoluzione dell’intelligenza artificiale salirà del 160% entro il 2030; serviranno circa 200 terawattora ogni anno solo per i consumi aggiuntivi dovuti all’intelligenza artificiale.

Per fare un paragone, il consumo annuo svizzero complessivo di energia elettrica è stato di 56 terawattora [Admin.ch]. In parole povere: solo per gestire l’intelligenza artificiale servirà un’energia pari a quasi quattro volte quella consumata da tutta la Confederazione.

Questi data center attualmente sono responsabili di circa il 2% di tutti i consumi di energia elettrica, ma entro la fine del decennio probabilmente consumeranno dal 3 al 4%, raddoppiando le loro emissioni di CO2. Goldman Sachs segnala che negli Stati Uniti saranno necessari investimenti per circa 50 miliardi di dollari per aggiungere capacità di produzione di energia per far fronte all’appetito energetico dei data center.

In Europa, sempre secondo l’analisi di Goldman Sachs, la crescente elettrificazione delle attività e l’espansione dei data center potrebbero far crescere il fabbisogno energetico del 40% o più entro il 2033. Entro il 2030, si prevede che la fame di energia di questi data center sarà pari all’intero consumo annuale di Portogallo, Grecia e Paesi Bassi messi insieme. Per stare al passo, la rete elettrica europea avrà bisogno di investimenti per circa 1,6 miliardi di euro nel corso dei prossimi anni.

Queste sono le stime e le previsioni degli esperti, ma ci sono già dei dati molto concreti su cui ragionare. Google e Microsoft hanno pubblicato due confessioni energetiche discrete, poco pubblicizzate, ma molto importanti.


Ai primi di luglio 2024, Google ha messo online il suo nuovo rapporto sulla sostenibilità delle proprie attività. A pagina 31 di questo rapporto si legge un dato molto significativo: l’anno scorso le sue emissioni di gas serra sono aumentate del 48% rispetto al 2019 principalmente a causa degli aumenti dei consumi di energia dei data center e delle emissioni della catena di approvvigionamento”, scrive il rapporto, aggiungendo che “man mano che integriamo ulteriormente l’IA nei nostri prodotti, ridurre le emissioni potrebbe essere impegnativo a causa dei crescenti fabbisogni energetici dovuti alla maggiore intensità dei calcoli legati all’IA” [“In 2023, our total GHG emissions were 14.3 million tCO2e, representing a 13% year-over-year increase and a 48% increase compared to our 2019 target base year. […] As we further integrate AI into our products, reducing emissions may be challenging due to increasing energy demands from the greater intensity of AI compute, and the emissions associated with the expected increases in our technical infrastructure investment.”].

Fin dal 2007, Google aveva dichiarato ogni anno che stava mantenendo una cosiddetta carbon neutralityoperativa, ossia stava compensando le proprie emissioni climalteranti in modo da avere un impatto climatico sostanzialmente nullo. Ma già nella versione 2023 di questo rapporto ha dichiarato invece che non è più così, anche se ambisce a tornare alla neutralità entro il 2030.

Anche Microsoft ammette che l’intelligenza artificiale sta pesando sui suoi sforzi di sostenibilità. Nel suo rapporto apposito, l’azienda scrive che le sue emissioni sono aumentate del 29% rispetto al 2020 a causa della costruzione di nuovi data center, concepiti e ottimizzati specificamente per il carico di lavoro dell’intelligenza artificiale.

E a proposito di costruzione di data center, Bloomberg fa notare che il loro numero è raddoppiato rispetto a nove anni fa: erano 3600 nel 2015, oggi sono oltre 7000, e il loro consumo stimato di energia elettrica equivale a quello di tutta l’Italia.

Distillando questa pioggia di numeri si ottiene un elisir molto amaro: l’attuale passione mondiale per l’uso onnipresente dell’intelligenza artificiale ha un costo energetico e un impatto ambientale poco visibili, ma molto reali, che vanno contro l’esigenza di contenere i consumi per ridurre gli effetti climatici. È facile vedere proteste molto vistose contro i voli in aereo, per esempio, e c’è una tendenza diffusa a rinunciare a volare come scelta di tutela dell’ambiente. Sarebbe ironico se poi chi fa questi gesti passasse la giornata a trastullarsi con ChatGPT perché non si rende conto di quanto consumo energetico ci stia dietro.

Per fare un paragone concreto e facile da ricordare, se quei 2,9 wattora necessari per una singola richiesta a ChatGPT venissero consumati attingendo alla batteria del vostro smartphone, invece che a qualche datacenter dall’altra parte del mondo, il vostro telefonino sarebbe completamente scarico dopo soltanto quattro domande. Se usaste delle normali batterie stilo, ne dovreste buttare via una ogni due domande.


Ognuno di noi può fare la propria parte per contenere questo appetito energetico smisurato, semplicemente scegliendo di non usare servizi basati sull’intelligenza artificiale remota se non è strettamente indispensabile. Ma esiste anche un altro modo per usare l’intelligenza artificiale, che consuma molto, molto meno: si chiama tiny AI, ossia microintelligenza artificiale locale [locally hosted tiny AI].

Si tratta di software di IA che si installano e funzionano su computer molto meno potenti ed energivori di quelli usati dalle grandi aziende informatiche, o addirittura si installano sugli smartphone, e lavorano senza prosciugarne la batteria dopo quattro domande. Hanno nomi come Koala, Alpaca, Llama, H2O-Danube, e sono in grado di generare testi o tradurli, di rispondere a domande su vari temi, di automatizzare la scrittura di un documento, di trascrivere una registrazione o di riconoscere una persona, consumando molta meno energia delle intelligenze artificiali online.

Per esempio, una microintelligenza artificiale può essere installata a bordo di una telecamera di sorveglianza, su un componente elettronico che costa meno di un dollaro e ha un consumo energetico trascurabile: meno dell’energia necessaria per trasmettere la sua immagine a un datacenter remoto tramite la rete telefonica cellulare.

Nella tiny AI, l’elaborazione avviene localmente, sul dispositivo dell’utente, e quindi non ci sono problemi di privacy: i dati restano dove sono e non vengono affidati a nessuno. Bisogna però cambiare modo di pensare e di operare: per tornare all’esempio della telecamera, invece di inviare a qualche datacenter le immagini grezze ricevute dalla telecamera e farle elaborare per poi ricevere il risultato, la tiny AI le elabora sul posto, direttamente a bordo della telecamera, e non le manda a nessuno: se rileva qualcosa di interessante, trasmette al suo proprietario semplicemente l’avviso, non l’intera immagine, con un ulteriore risparmio energetico.

Non si tratta di alternative teoriche: queste microintelligenze sono già in uso, per esempio, negli occhiali smart dotati di riconoscimento vocale e riconoscimento delle immagini. Siccome devono funzionare sempre, anche quando non c’è connessione a Internet, e dispongono di spazi limitatissimi per le batterie, questi oggetti devono per forza di cose ricorrere a un’intelligenza ultracompatta e locale.

Ma allora perché le grandi aziende non usano questa soluzione dappertutto, invece di costruire immensi datacenter? Per due motivi principali. Il primo è tecnico: queste microintelligenze sono brave a fare una sola cosa ciascuna, mentre servizi come Google Gemini o ChatGPT sono in grado di rispondere a richieste di molti tipi differenti e più complesse, che hanno bisogno di attingere a immense quantità di dati. Ma le richieste tipiche fatte dagli utenti a un’intelligenza artificiale sono in gran parte semplici, e potrebbero benissimo essere gestite da una tiny AI. Troppo spesso, insomma, si impugna un martello per schiacciare una zanzara.

Il secondo motivo è poco tecnico e molto commerciale. Se gli utenti si attrezzano con una microintelligenza propria, che oltretutto spesso è gratuita da scaricare e installare, crolla tutto il modello di business attuale, basato sull’idea di convincerci che pagare un abbonamento mensile per avere servizi basati sull’intelligenza artificiale remota sia l’unico modello commerciale possibile.

La scelta, insomma, sta a noi: o diventare semplici cliccatori di app chiavi in mano, che consumano quantità esagerate di energia e creano una dipendenza molto redditizia per le aziende, oppure rimboccarsi un pochino le maniche informatiche e scoprire come attrezzarsi con un’intelligenza artificiale locale, personale, che fa quello che vogliamo noi e non va a raccontare a nessuno i nostri fatti personali. E come bonus non trascurabile, riduce anche il nostro impatto globale su questo fragile pianeta.

Fonti aggiuntive

Ultra-Efficient On-Device Object Detection on AI-Integrated Smart Glasses with TinyissimoYOLO, Arxiv.org, 2023

Tiny VLMs bring AI text plus image vision to the edge, TeachHQ.com, 2024

Tiny AI is the Future of AI, AIBusiness, 2024

The Surprising Rise of “Tiny AI”, Medium, 2024

I test AI chatbots for a living and these are the best ChatGPT alternatives, Tom’s Guide, 2024

Podcast RSI – Gli smartphone ci ascoltano? No, ma…

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Spotify e feed RSS (Google Podcasts non esiste più, al suo posto c’è YouTube Music).

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.


I telefonini ascoltano le nostre conversazioni per bombardarci di pubblicità? La risposta degli esperti è sempre stata un secco “no”, nonostante la montagna di aneddoti e di casi personali raccontati dagli utenti, che dicono in tanti di aver visto sul telefonino la pubblicità di uno specifico prodotto poco dopo aver menzionato ad alta voce il nome o la categoria di quel prodotto.

La tecnologia, però, galoppa, i telefonini diventano sempre più potenti e i pubblicitari diventano sempre più avidi di dati personali per vendere pubblicità sempre più mirate ed efficaci, e quindi oggi quel secco “no” va aggiornato, trasformandolo in un “no, ma…”, perché un’azienda importante è stata colta a proporre ai clienti proprio questo tipo di ascolto delle conversazioni a scopo pubblicitario.

Questa è la storia di quel “no” e soprattutto di quel “ma”. Non è il caso di farsi prendere dal panico, ma è opportuno sapere dove sta andando la tecnologia e quali semplici gesti si possono fare per evitare il rischio di essere ascoltati dai nostri inseparabili smartphone.

Benvenuti alla puntata del 6 settembre 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Se ne parla da anni: moltissime persone sono convinte che i loro smartphone ascoltino costantemente le loro conversazioni e colgano le parole chiave di quello che dicono, selezionando in particolare i termini che possono interessare ai pubblicitari. C’è la diffusissima sensazione che basti parlare di una specifica marca di scarpe o di una località di vacanze, senza cercarla su Internet tramite il telefonino, per veder comparire sullo schermo la pubblicità di quel prodotto o di quel servizio. Praticamente tutti i proprietari di smartphone possono citare casi concreti accaduti a loro personalmente.

Restano inascoltate, invece, le spiegazioni e le indagini fatte dagli esperti in vari paesi del mondo in questi anni. I test e le inchieste della rete televisiva statunitense CBS e della Northeastern University nel 2018, gli esperimenti della BBC insieme alla società di sicurezza informatica Wandera nel 2019, l’inchiesta del Garante italiano per la protezione dei dati personali nel 2021: tutte queste ricerche sul problema non hanno portato a nulla. Non c’è nessuna conferma oggettiva che i telefonini ci ascoltino e mandino ai pubblicitari le nostre parole per impostazione predefinita. Quando si fanno i test in condizioni controllate, il fenomeno sparisce.

Per esempio, nella loro indagine del 2019, la BBC e Wandera hanno messo due telefonini, un Android di Samsung e un iPhone di Apple, in una stanza e per mezz’ora hanno fatto arrivare nella stanza l’audio di pubblicità di cibo per cani e per gatti. Hanno anche piazzato due telefonini identici in una stanza isolata acusticamente. Tutti questi telefoni avevano aperte le app di Facebook, Instagram, SnapChat, YouTube e Amazon, insieme al browser Chrome, e a tutte queste app erano stati dati tutti i permessi richiesti.

I ricercatori hanno successivamente controllato se nelle navigazioni fatte dopo il test con quegli smartphone sono comparse pubblicità di cibi per animali domestici e hanno analizzato il consumo della batteria e la trasmissione di dati durante il test. Hanno ripetuto tutta questa procedura per tre giorni, e il risultato è stato che non sono comparse pubblicità pertinenti sui telefonini esposti agli spot di cibi per animali e non ci sono stati aumenti significativi del consumo di batteria o della trasmissione di dati. I consumi e le trasmissioni di dati sono stati praticamente uguali per i telefoni esposti all’audio pubblicitario e per quelli nella stanza silenziosa.

Se ci fosse un ascolto costante e un’altrettanto costante analisi dell’audio ambientale, questo produrrebbe un aumento dei consumi, perché il processore del telefono lavorerebbe in continuazione, e ci sarebbe un aumento della trasmissione di dati, per inviare le informazioni ascoltate ai pubblicitari. E invece niente. Anzi, i ricercatori hanno osservato che i telefonini Android nella stanza isolata acusticamente trasmettevano più dati rispetto a quelli esposti all’audio preparato per l’esperimento, mentre gli iPhone facevano il contrario.

Altri esperimenti analoghi sono stati fatti negli anni successivi, e tutti hanno dato gli stessi risultati. Il picco di consumo energetico e di trasmissione di dati prodotto dagli assistenti vocali, cioè Siri e OK Google, è sempre emerso chiaramente in questi test. Questi assistenti vocali sono in ascolto costante per impostazione predefinita (anche se si possono disattivare), e questo non è minimamente in dubbio, ma lavorano in maniera molto differente rispetto a un ipotetico ascolto pubblicitario.

Gli assistenti vocali, infatti, ascoltano l’audio ambientale alla ricerca di suoni che somiglino a una o due parole chiave di attivazione – tipicamente “Ehi Siri” e “OK Google” – e quando credono di averle sentite iniziano una vistosissima trasmissione di dati verso le rispettive case produttrici. L’ipotetico ascolto pubblicitario, invece, dovrebbe cercare e riconoscere un insieme di parole molto più vasto e magari anche in più di una lingua, e questo richiederebbe molta più potenza di calcolo e quindi consumi molto più elevati, e poi dovrebbe trasmettere dei dati, cosa che i test finora hanno smentito.

Ma allora perché abbiamo la forte sensazione che i telefonini ci ascoltino lo stesso a scopo pubblicitario? E perché avete probabilmente la sensazione altrettanto forte che alla fine di questo mio racconto ci sia una novità che smentisce tutto quello che si era scoperto fin qui?


La sensazione di ascolto pubblicitario viene spiegata dagli esperti con la cosiddetta “illusione di frequenza”, per usare il termine coniato dal professore di linguistica Arnold Zwicky della Stanford University. In parole povere, tendiamo a notare le coincidenze e a dimenticare le non coincidenze. Nel corso della giornata vediamo moltissime pubblicità, ma ci rimangono impresse solo quelle che coincidono con qualcosa che abbiamo detto o fatto. E quando la coincidenza è particolarmente specifica ci colpisce anche emotivamente.

Va detto che la pubblicità che vediamo sui nostri dispositivi non è affatto casuale, e quindi le coincidenze sono agevolate: Google e Facebook, per esempio, usano un vasto assortimento di tecniche per dedurre i nostri interessi e proporci pubblicità mirata. Sanno dove ci troviamo minuto per minuto, grazie alla geolocalizzazione del GPS e del Wi-Fi; sanno con chi siamo e con chi trascorriamo più tempo, grazie al monitoraggio passivo dei dispositivi Bluetooth nelle nostre vicinanze, all’analisi del traffico di messaggi e al fatto che affidiamo a loro le nostre agende e le nostre rubriche telefoniche; sanno cosa scriviamo nelle mail o rispettivamente sui social network. Con dati del genere, ascoltare le conversazioni è praticamente superfluo. Oltretutto la legalità di un ascolto di questo tipo sarebbe molto controversa, visto che si tratterebbe in sostanza di una intercettazione di massa di conversazioni che si ha il diritto di presumere che siano private.

Va anche detto, però, che non è un mistero che esistano tecnologie di ascolto installabili sugli smartphone. I servizi di sicurezza dei vari governi le usano abitualmente per intercettare le comunicazioni delle persone indagate. Già dieci anni fa, Edward Snowden spiegò che l’NSA aveva accesso diretto ai sistemi di Google, Facebook e Apple nell’ambito di un programma di sorveglianza governativa denominato PRISM [The Guardian, 2013]. Ma si tratta di intercettazioni mirate, specifiche, ordinate da un governo su bersagli selezionati, non di ascolti di massa, collettivi e senza basi legali. In ogni caso, è indubbio che usare uno smartphone come microfono nascosto, a insaputa dell’utente, sia tecnicamente possibile.

Si sa anche di un caso conclamato di ascolto ambientale tramite telefonini a scopo commerciale: nel 2019 l’app ufficiale del campionato spagnolo di calcio, LaLiga, fu colta a usare il microfono e la geolocalizzazione degli smartphone degli utenti per identificare i locali che trasmettevano le partite senza autorizzazione. L’agenzia spagnola per la protezione dei dati impose all’organizzazione sportiva una sanzione di 250.000 euro per questo comportamento. Ma anche in questo caso, si trattava di un ascolto effettuato da una specifica app, installata su scelta dell’utente, con tanto di richiesta esplicita del permesso di usare il microfono del telefono, non di una attivazione collettiva e nascosta dei microfoni di tutti gli smartphone così come escono dalla fabbrica.

Questa storia, però, prosegue a dicembre 2023, quando alcuni giornali segnalano che una società di marketing, la statunitense Cox Media Group, avrebbe “ammesso di monitorare le conversazioni degli utenti per creare annunci pubblicitari personalizzati in base ai loro interessi” [Il Sole 24 Ore, 28 dicembre 2023, paywall].

Sembra essere la conferma che il sentimento popolare era giusto e che gli esperti avevano torto. Ma per capire come stanno realmente le cose bisogna andare un pochino più a fondo.


La scoperta di questa presunta ammissione da parte di Cox Media Group è merito della testata 404 Media, che ha pubblicato lo scoop in un articolo riservato agli abbonati e quindi non immediatamente accessibile [paywall].

Ma pagando l’abbonamento e andando a leggere l’articolo originale, come ho fatto io per questo podcast, emerge che non c’è nessuna ammissione di monitoraggio in corso, ma semplicemente c’è l’annuncio che Cox Media Group dispone della capacità di effettuare un eventuale monitoraggio tramite i microfoni degli smartphone e anche tramite quelli dei televisori smart e di altri dispositivi. Non c’è nessuna dichiarazione che la stia realmente usando.

Anzi, il materiale promozionale di Cox Media Group dice che questa tecnologia, denominata “Active Listening” o “ascolto attivo”, “è agli albori” (“Active Listening is in its early days”), e presenta questa capacità tecnica come “una tecnica di marketing adatta al futuro, disponibile oggi” [“a marketing technique fit for the future. Available today”].

Le affermazioni promozionali di Cox Media Group, ora rimosse ma salvate su Archive.org.

È disponibile, ma questo non vuol dire che venga usata. E i consulenti di vendita dell’azienda la presentano come se fosse un prodotto nuovo in cerca dei primi clienti.

I clienti di Cox Media Group, stando all’azienda, sono nomi come Amazon, Microsoft e Google. Stanno usando questa tecnologia di ascolto? Le risposte che hanno dato ai colleghi di 404 Media a dicembre scorso sembrano dire di no, ma inizialmente è mancata una smentita secca da parte loro. Smentita che è invece arrivata subito, stranamente, da Cox Media Group stessa, che ha dichiarato ai giornalisti di 404 Media che

“non ascolta conversazioni e non ha accesso a nulla più di un insieme di dati fornito da terze parti e anonimizzato, aggregato e completamente cifrato usabile per il piazzamento pubblicitario”

e ha aggiunto che si scusa per “eventuali equivoci”.

Eppure il suo materiale promozionale dice cose decisamente difficili da equivocare. O meglio, le diceva, perché è scomparso dal suo sito.

[È disponibile come copia d’archivio su Archive.org e su Documentcloud.orge contiene frasi come “No, it’s not a Black Mirror episode - it’s Voice Data” e “Creepy? Sure. Great for marketing? Definitely”].

Ma pochi giorni fa, sempre 404 Media ha reso pubblica una presentazione di Cox Media Group [PDF] nella quale l’azienda parla esplicitamente di “dispositivi smart” che “catturano dati di intenzione in tempo reale ascoltando le nostre conversazioni” (“Smart devices capture real-time intent data by listening to our conversations”), parla di consumatori che “lasciano una scia di dati basata sulle loro conversazioni e sul loro comportamento online” (“Consumers leave a data trail based on their conversations and online behavior”) e parla di “dati vocali” (“voice data”).

La slide 1 della presentazione di Cox Media Group ottenuta da 404 Media.

Ma allora come stanno le cose? È indubbio, anche grazie alle testimonianze raccolte dai giornalisti di 404 Media, che Cox Media Group abbia cercato di vendere questa sua presunta capacità di ascoltare le nostre conversazioni. Ma l’ha davvero venduta, ed è realmente in uso? Sembra proprio di no.

Anzi, dopo che si è diffusa la notizia di questa sua offerta di tecnologie di ascolto, Google ha tolto Cox Media Group dal programma Google Partners dedicato ai migliori inserzionisti, nel quale la Cox era presente al massimo livello da oltre 11 anni. Amazon ha dichiarato di non aver mai lavorato con la Cox al programma di ascolto. Meta, invece, dice che sta valutando se la Cox abbia violato i termini e le condizioni della loro collaborazione, mentre Microsoft non ha rilasciato commenti.

[Meta ha dichiarato al New York Post che “non usa il microfono del vostro telefono per le pubblicità e lo dichiariamo pubblicamente da anni [...] stiamo cercando di comunicare con CMG per fare in modo che chiariscano che il loro programma non è basato su dati di Meta”. In originale: “Meta does not use your phone’s microphone for ads and we’ve been public about this for years [...] We are reaching out to CMG to get them to clarify that their program is not based on Meta data.”]

Insomma, formalmente intorno a chi ha proposto di ascoltare le nostre conversazioni a scopo pubblicitario è stata fatta terra bruciata, per cui tutta la vicenda sembra più un maldestrissimo tentativo di proporre una tecnologia di ascolto che una conferma di una sua reale applicazione in corso. E la rivelazione di questo tentativo mette in luce la falla non tecnica ma molto umana di qualunque piano di ascolto globale segreto delle conversazioni a scopo pubblicitario: è praticamente impossibile tenere nascosta una tecnologia del genere, che va presentata ai potenziali partner, va pubblicizzata agli addetti ai lavori, ai rivenditori, ai tecnici e a chissà quante altre persone. Il segreto dovrebbe essere condiviso da un numero enorme di persone, e prima o poi qualcuna di queste persone si lascerebbe sfuggire qualcosa oppure, presa da rimorsi di coscienza, vuoterebbe il sacco.

[L’inchiesta di 404 Media sembra essere partita appunto da una vanteria di ascolto pubblicitario fatta in un podcast da un’azienda del New Hampshire, la MindSift]

Anche stavolta, quindi, possiamo stare tranquilli, ma solo grazie al fatto che ci sono giornalisti che vigilano e segnalano i tentativi di invadere uno spazio così personale come quello di una chiacchierata privata tra colleghi, amici o coniugi. Perché un’invasione del genere è illegale e immorale, ma questo non impedirà a persone e aziende senza scrupoli di provarci lo stesso. E se comunque preferite spegnere il telefonino prima di una conversazione sensibile di qualunque tipo, male non fa. Non si sa mai.

Fonti aggiuntive

Podcast RSI – Telegram cambia le proprie regole, terremoto di sicurezza

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesYouTube MusicSpotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.


[CLIP: TF1 annuncia l’arresto di Durov]

Il 24 agosto scorso Pavel Durov, fondatore e CEO della popolarissima piattaforma di messaggistica Telegram, è stato fermato in Francia [RSI] e successivamente incriminato dalle autorità francesi e rilasciato su cauzione, con l’obbligo di restare nel paese. L’incriminazione parla di “rifiuto di comunicare le informazioni necessarie per le intercettazioni autorizzate dalla legge”“complicità” in reati e crimini gravissimi organizzati su o tramite Telegram, e… omessa dichiarazione formale di importazione in Francia di un sistema crittografico?

Questo terzo capo di incriminazione può sembrare dissonante rispetto agli altri due, ma ha una sua spiegazione che è importante per capire perché il fermo di Durov ha scatenato un terremoto che ha scosso molti degli oltre 900 milioni di utenti di Telegram.

Questa è la storia, fin qui, di questo terremoto e delle sue implicazioni per la sicurezza e la privacy, non tanto per i criminali che usano Telegram, ma per gli utenti onesti di questa piattaforma, specialmente quelli che vivono in paesi dove i diritti umani non vengono rispettati e i dissidenti vengono perseguitati. Questi utenti in questi anni si sono affidati a Telegram contando sulla sua promessa di non collaborare con nessun governo, e ora scoprono che le loro conversazioni su questa piattaforma non erano così protette e segrete come pensavano, anche perché Telegram, dopo il fermo e l’incriminazione di Durov, ha silenziosamente cambiato le proprie regole.

Benvenuti alla puntata del 13 settembre 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Telegram è diverso dagli altri sistemi di messaggistica, come Signal o WhatsApp, per due ragioni principali. La prima è che offre i cosiddetti canali, ai quali può iscriversi un numero sostanzialmente illimitato di persone per seguire i messaggi pubblicati da un singolo utente o da una specifica organizzazione.

[i gruppi di Telegram possono avere fino a 200.000 partecipanti]

Questa capacità di far arrivare un messaggio anche a milioni di persone, senza nessuna delle restrizioni o dei filtraggi tipici di altre piattaforme, rende Telegram più allettante rispetto alla concorrenza, per esempio per i criminali informatici e anche per quelli non informatici, dai trafficanti di droga ai terroristi ai pedofili, che possono usarlo (e lo usano) per pubblicizzare i propri prodotti e servizi o le proprie terribili azioni e gestire la propria clientela in modo efficiente e discreto. Ovviamente queste stesse caratteristiche sono utili anche per chi lotta contro censure, persecuzioni o restrizioni delle libertà.

E così Telegram, per chi vive in Russia, è uno dei pochissimi canali attraverso i quali è possibile ricevere informazioni non filtrate dalla censura governativa. Durov lasciò la Russia dieci anni fa, nel 2014, proprio per non dover cedere al governo i dati dei cittadini raccolti dalla sua piattaforma precedente, Vkontakte, una sorta di Facebook nazionale, e per non doverla censurare. A modo suo, Pavel Durov ha esibito dei princìpi etici molto saldi: non collaborare con nessuna autorità, perché chi per un certo governo è un sovversivo per un altro governo è un dissidente, e chi è considerato terrorista da una parte è visto come combattente per la libertà dall’altra.

La seconda ragione è che Telegram, intesa come azienda, si è sempre vantata di rifiutare qualunque collaborazione con le forze di polizia di qualunque paese e di non fare moderazione: nelle pagine del suo sito ha dichiarato che 

“Tutte le chat e i gruppi di Telegram sono territorio privato dei loro rispettivi partecipanti. Non eseguiamo alcuna richiesta relativa ad esse […] Ad oggi, abbiamo divulgato 0 byte di dati a terzi, inclusi i governi […] Mentre blocchiamo bot e canali legati al terrorismo (ad esempio legati all’ISIS), non bloccheremo nessuno che esprime pacificamente altre opinioni.”

Il risultato è che oggi 900 milioni e passa di persone in tutto il mondo si affidano a Telegram per comunicare di tutto, dagli annunci di estorsione informatica ai consigli delle mamme appassionate di rimedi naturali alle malattie, dagli amori clandestini ai film piratati, e di quei 900 milioni e passa circa 10 milioni sono utenti paganti, i cui abbonamenti permettono all’azienda Telegram di operare. Ma a fine agosto per tutte queste persone è arrivato un brusco risveglio.


Prima di tutto, il fermo di Durov ha fatto parlare molto di Telegram anche nei media generalisti, e quindi finalmente molti utenti non esperti sono venuti a conoscenza di un dettaglio tecnico cruciale: le normali chat di Telegram, le sue chat di gruppo e i messaggi diffusi in massa attraverso i suoi canali non sono protetti tramite la crittografia end-to-end, come lo sono invece quelli di WhatsApp o di Signal.

Soltanto le cosiddette chat segrete di Telegram godono di questa protezione, che rende tecnicamente impossibile per il fornitore di un servizio di messaggistica collaborare con le autorità facendo leggere i messaggi dei sospettati. Crittografia end-to-end significa infatti che neppure il fornitore del servizio è in grado di leggere i messaggi scambiati dai suoi utenti e quindi può respingere le richieste di accesso di qualunque autorità semplicemente spiegando che non le può soddisfare per motivi puramente tecnici. Non può fornire i messaggi perché non è in grado di leggerli.

Ma mentre su WhatsApp questa protezione è applicata automaticamente a tutti i messaggi di tutti gli utenti, su Telegram è appunto necessario attivarla manualmente, e comunque la crittografia end-to-end non è disponibile nelle comunicazioni di gruppo ma solo in quelle dirette tra due persone, come spiegato in dettaglio sul sito di Telegram nelle pagine tecniche, quelle che non legge nessuno. E così pochissimi utenti conoscono e usano queste chat segrete.

[oltretutto le chat segrete sono particolarmente difficili da attivare]

In altre parole, il grosso del traffico di messaggi, leciti e illeciti, trasportati da Telegram è leggibile dai tecnici di Telegram, è archiviato sui server dell’azienda e quindi potrebbe essere consegnato alle autorità di qualunque paese, democratico o non democratico. Nessun problema per chi usa Telegram per coordinare le attività di un circolo scacchistico, ma per chiunque usi Telegram per proteggersi da autorità oppressive o per scopi non propriamente legali è uno shock scoprire che quello spazio che riteneva sicuro non lo è affatto.

Va detto che Telegram ha protetto i messaggi dei suoi utenti in altri modi: lo ha fatto tramite la crittografia dei propri server, di cui però ha le chiavi, che quindi gli possono essere chieste dalle autorità; e lo ha fatto distribuendo la propria infrastruttura in vari paesi, per cui i messaggi degli utenti sono sparsi in vari frammenti sotto giurisdizioni molto differenti, che dovrebbero quindi avviare un’azione legale coordinata e congiunta per avere accesso a quei messaggi.

[anche per le chat segrete, comunque, ci sono dubbi tecnici sulla qualità della crittografia di Telegram, che usa una tecnologia “indipendente”, ossia autoprodotta. E resta la questione dei metadati, comunque facilmente accessibili]

Ma il fatto stesso che i messaggi siano in qualche modo accessibili all‘azienda significa che un governo sufficientemente attrezzato, agguerrito e deciso potrebbe effettuare un attacco informatico a Telegram per leggersi quei messaggi. Oppure, più semplicemente, potrebbe trovare metodi non informatici per indurre l’azienda a collaborare. Per esempio, un fermo e un’incriminazione del suo fondatore e amministratore, magari con la scusa della mancata dichiarazione formale di aver importato in Francia un sistema crittografico. Telegram opera anche in Francia da anni, alla luce del sole, per cui è presumibile che le autorità francesi fossero ben consapevoli da tempo di questa mancata dichiarazione prevista dalle leggi nazionali, eppure non hanno mai fatto nulla per contestare l’omissione prima di oggi.

[la normativa francese include la facoltà di chiedere alle aziende di fornire “le caratteristiche tecniche e il codice sorgente dei mezzi crittografici oggetto della dichiarazione”]

E in effetti dopo l’intervento delle autorità francesi su Telegram è cambiato qualcosa di importante.


Intorno al 5 settembre scorso le fiere parole di rifiuto di qualunque collaborazione che ho citato prima sono state riscritte sul sito di Telegram. Adesso Telegram non dice più che “Tutte le chat e i gruppi di Telegram sono territorio privato dei loro rispettivi partecipanti” e che non esegue alcuna richiesta relativa ad esse. Al posto di queste parole c’è l’annuncio che “Tutte le app di Telegram dispongono di pulsanti “Segnala” che consentono di segnalare i contenuti illegali ai nostri moderatori, con pochi tocchi.”

Le FAQ di Telegram com’erano prima del fermo di Durov…
… e come sono adesso.

Non è una novità in senso stretto: questa funzione di segnalazione esiste da tempo nell’app. Ma è interessante che sia stata messa in evidenza e che siano scomparse quelle parole sul “territorio privato”, quasi a suggerire un nuovo corso di collaborazione con le autorità.

Durov ha usato parole piuttosto concilianti anche in un suo annuncio personale [https://t.me/durov/342], dicendo che

“l’improvviso aumento del numero di utenti a 950 milioni ha causato dei problemi legati alla crescita che hanno agevolato i criminali nell’abusare della nostra piattaforma […] è mio obiettivo personale assicurarmi che miglioreremo significativamente le cose in questo senso”.

Pavel Durov ha inoltre sottolineato l’impegno di Telegram contro gli abusi sui minori, citando l’apposito canale di Telegram [@StopCA] che indica, giorno per giorno, i numeri dei gruppi e canali banditi in relazione a questi abusi: sono quasi duemila al giorno. Ha dichiarato anche che Telegram rimuove quotidianamente “milioni di post nocivi” e ha “canali diretti di comunicazione con le organizzazioni non governative per gestire più rapidamente le richieste urgenti di moderazione.”

Sembra insomma che Durov voglia lasciarsi alle spalle numeri preoccupanti, come le 2460 richieste della polizia francese a Telegram rimaste senza risposta [Libération, paywall], e una reputazione guadagnata sul campo di non collaborare con le autorità nemmeno quando si tratta di situazioni di crimine indiscusso e non di questioni di libertà di parola.

[In realtà qualche caso di “collaborazione”, o meglio di azione forzata, c’è stato: la EFF nota che Telegram è stata multata dalle autorità tedesche nel 2022 per non aver predisposto un iter legale per la segnalazione di contenuti illegali e per non aver nominato un referente tedesco per la ricezione delle comunicazioni ufficiali e che il Brasile ha multato Telegram nel 2023 per non aver sospeso gli account dei sostenitori dell’ex presidente Bolsonaro]
[Secondo Politico.eu, l’indagine francese che ha portato al fermo di Durov sarebbe iniziata quando un agente sotto copertura ha interagito con una persona sospettata di essere un predatore sessuale su Telegram e questa persona ha poi ammesso di aver violentato una ragazza giovane. Quando le autorità hanno chiesto a Telegram l’identità di questo utente, Telegram si è rifiutata, e così gli inquirenti si sono concentrati sulle persone che gestiscono Telegram]

A questo restyling di Telegram contribuisce anche la rimozione della funzione Persone vicine, annunciata personalmente da Durov [https://t.me/durov/343]. Questa funzione permetteva a un utente di localizzare gli altri utenti di Telegram situati nelle sue vicinanze, con rischi fin troppo evidenti di abusi e di agevolazione dello stalking.

[la funzione era però anche utile per l’OSINT investigativa]

Numerosi criminali online che usano Telegram, intanto, hanno reagito alla situazione chiudendo i propri account sulla piattaforma, un po’ perché temono che i loro dati e quelli della loro clientela possano finire nelle mani delle autorità, e un po’ perché hanno paura che i loro account verranno chiusi, ora che Telegram dice di volersi occupare seriamente della moderazione [404 Media].

La parola chiave di tutta questa vicenda sembra essere moderazione, o meglio, carenza di moderazione dei contenuti diffusi da Telegram, anche dopo che sono stati segnalati, come nota anche l’autorevole Electronic Frontier Foundation riportando una dichiarazione dell’Ofmin, l’ente francese incaricato di investigare sulle minacce alla sicurezza online dei minori, notando che secondo la legge francese consentire la distribuzione di contenuti o servizi illegali di cui si è a conoscenza è un reato.

Gli eventuali cambiamenti concreti di Telegram diverranno visibili nei prossimi mesi, ma il presupposto delle autorità francesi che la mancanza di moderazione dei contenuti illegali segnalati comporti una responsabilità penale del titolare di un sito probabilmente sta facendo venire i brividi ad altri CEO di piattaforme di messaggistica e social network che non hanno la reputazione di essere “paradisi anarchici”, per citare l’espressione usata da Durov, ma se la meriterebbero. Perché anche Instagram, per esempio, ha lo stesso problema di omessa moderazione di contenuti anche dopo che sono stati segnalati.


Lo so perché anch’io, come tanti altri utenti, segnalo spesso gli spezzoni di video pornografici e di abusi su minori inseriti nei reel di Instagram dopo qualche secondo di contenuto non controverso, ma la moderazione di questa piattaforma risponde puntualmente che il video è conforme alle norme della comunità e non lo rimuove. Eppure la violazione delle norme sarebbe assolutamente ben visibile se solo il moderatore, o l’intelligenza artificiale che forse lo ha sostituito, si degnasse di esaminare il video per qualche secondo in più.

[non pubblico esempi per ovvie ragioni, ma se i responsabili di Instagram vogliono sapere i dettagli, ho screenshot e registrazioni dei reel in questione - solo di quelli pornografici, per non detenere materiale illegale, di cui posso comunque fornire i link]

X, quello che una volta era Twitter, è anche peggio, soprattutto per chi è genitore di figli molto giovani che scalpitano per entrare nei social network. La pornografia e la violenza, anche di tipi estremi, sono accessibili su X semplicemente cambiando un’impostazione dell’app, ed è cosi da ben prima della sua acquisizione da parte di Elon Musk; dopo questa acquisizione sono aumentati i contenuti riguardanti odio, discriminazione e razzismo. Segnalarli è inutile, perché la loro presenza è esplicitamente prevista dalle regole di X ed è coperta dalla foglia di fico decisamente troppo corta di un messaggio di avvertimento, facilissimo da eludere, e dall’appoggio esplicito di Musk stesso.

[Le info di X su come segnalare contenuti sono quiquesta è la media policy di X sui contenuti per adulti; questo è il post su X nel quale Musk dice a Taylor Swift che le vuole “dare un figlio”, cosa che persino le Note della Collettività di X considerano una molestia sessuale inaccettabile; queste (Variety) sono le reazioni al post di Musk]

Il segnale mandato dalle autorità francesi è molto forte e a differenza delle segnalazioni degli utenti è difficile da ignorare: i gestori delle grandi piattaforme, se sono avvisati del fatto che ospitano contenuti o comportamenti illegali, non possono far finta di niente solo perché sono straricchi. Hanno delle responsabilità legali e soprattutto sociali, visto il peso che i loro servizi hanno nella formazione delle giovani generazioni e anche di quelle meno giovani.

A questo punto viene da chiedersi se dopo quello che è successo a Pavel Durov, Mark Zuckerberg e Elon Musk abbiano già mandato un breve promemoria ai piloti del loro jet personali: “Evitare Francia”.

Fonti aggiuntive

Podcast RSI – No, i telefonini non esplodono spontaneamente

Un frammento di uno dei cercapersone esplosi. Fonte: Al Jazeera.

Ultimo aggiornamento: 2024/09/22 19:00.

Questo è il testo della puntata del 20 settembre 2024 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS.

Il podcast si prenderà una pausa la settimana prossima e tornerà il 4 ottobre.


[CLIP: audio di esplosione e di panico]

Migliaia di dispositivi elettronici sono esplosi improvvisamente nel corso di due giorni in Libano e in Siria, uccidendo decine di persone e ferendone almeno tremila. Inizialmente si è sparsa la voce che si trattasse di un “attacco hacker”, come hanno scritto anche alcune testate giornalistiche [Il Fatto Quotidiano], facendo pensare a un’azione puramente informatica in grado di colpire teoricamente qualunque dispositivo ovunque nel mondo facendone esplodere la batteria attraverso un particolare comando inviato via radio o via Internet.

Non è così, ma resta il dubbio legittimo: sarebbe possibile un attacco del genere?

Questa è la storia di una tecnica di aggressione chiamata supply chain attack, che in questi giorni si è manifestata in maniera terribilmente cruenta ma è usata da tempo da criminali e governi per mettere a segno sabotaggi, estorsioni e operazioni di sorveglianza.

Benvenuti alla puntata del 20 settembre 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Il 17 settembre scorso il Libano e la Siria sono stati scossi dalle esplosioni quasi simultanee di migliaia di cercapersone, che hanno ucciso decine di persone e ne hanno ferite oltre duemila. Il giorno successivo sono esplosi centinaia di walkie-talkie, causando la morte di almeno altre venti persone e il ferimento di alcune centinaia.

Queste due raffiche di esplosioni hanno seminato il panico e la confusione nella popolazione locale, presa dal timore che qualunque dispositivo elettronico dotato di batteria, dal computer portatile alle fotocamere allo smartphone, potesse esplodere improvvisamente. Sui social network si è diffusa la diceria che stessero esplodendo anche gli impianti a pannelli solari, le normali radio e le batterie delle automobili a carburante, ma non c’è stata alcuna conferma [BBC]. All’aeroporto di Beirut è scattato il divieto di portare a bordo degli aerei qualunque walkie-talkie o cercapersone [BBC].

Nelle ore successive è emerso che non si è trattato di un “attacco hacker” in senso stretto: non è bastato che qualcuno mandasse un comando a un dispositivo per innescare l’esplosione della sua batteria. I cercapersone e i walkie-talkie esplosi erano stati sabotati fisicamente, introducendo al loro interno delle piccole ma micidiali cariche esplosive, successivamente fatte detonare inviando un comando via radio, con l’intento di colpire i membri di Hezbollah che usavano questi dispositivi.

In altre parole, non c’è nessun pericolo che qualcuno possa far esplodere un telefonino, un rasoio elettrico, una fotocamera, uno spazzolino da denti elettronico, un computer portatile, delle cuffie wireless, un tablet, un’automobile elettrica o qualunque altro dispositivo dotato di batteria semplicemente inviandogli un comando o un segnale particolare o infettandolo con un’app ostile di qualche tipo. Per questo genere di attacco, il dispositivo deve essere stato modificato fisicamente e appositamente.

È importante però non confondere esplosione con incendio. Le batterie dei dispositivi elettronici possono in effetti incendiarsi se vengono danneggiate o caricate in modo scorretto. Ma gli eventi tragici di questi giorni non hanno affatto le caratteristiche di una batteria che prende fuoco, perché le esplosioni sono state improvvise e violente, delle vere e proprie detonazioni tipiche di una reazione chimica estremamente rapida, mentre l’incendio di una batteria è un fenomeno veloce ma non istantaneo, che rilascia molta energia termica ma lo fa in modo graduale, non di colpo.

Cosa più importante, non esiste alcun modo per innescare l’incendio di una batteria di un normale dispositivo attraverso ipotetiche app o ipotetici comandi ostili. Anche immaginando un malware capace di alterare il funzionamento del caricabatterie o dei circuiti di gestione della carica e scarica della batteria, la batteria stessa normalmente ha delle protezioni fisiche contro la scarica improvvisa o la carica eccessiva. Chi si è preoccupato all’idea che degli hacker sarebbero capaci di trasformare i telefonini in bombe con un semplice comando può insomma tranquillizzarsi, soprattutto se si trova lontano dalle situazioni di conflitto.

C’è però da capire come sia stato possibile un sabotaggio così sofisticato, e in questo senso l’informatica ci può dare una mano, perché non è la prima volta che si verifica quello che in gergo si chiama un supply chain attack, o attacco alla catena di approvvigionamento, anche se quella di questi giorni è una sua forma particolarmente cruenta.


Un supply chain attack è un attacco, fisico o informatico, a un elemento della catena di approvvigionamento di un avversario. Invece di attaccare i carri armati del nemico, per esempio, si colpiscono i loro depositi di carburante o le loro fabbriche di componenti. In campo informatico, invece di attaccare direttamente l’azienda bersaglio, che è troppo ben difesa, si prende di mira un suo fornitore meno attento alla sicurezza e lo si usa come cavallo di Troia per aggirare le difese entrando dall’accesso riservato ai fornitori, per così dire. Anzi, si potrebbe dire che proprio il celebre cavallo di Troia fu il primo caso, sia pure mitologico, di supply chain attack, visto che i troiani si fidarono decisamente troppo del loro fornitore.

Un esempio tipico, concreto e moderno di questa tecnica di attacco risale al 2008, quando le forze di polizia europee smascherarono un’organizzazione criminale dedita alle frodi tramite carte di credito che rubava i dati dei clienti usando dei dispositivi non tracciabili inseriti nei lettori delle carte di credito fabbricati in Cina. Questo aveva permesso ai criminali di effettuare prelievi e acquisti multipli per circa 100 milioni di dollari complessivi.

Nel 2013 la catena statunitense di grandi magazzini Target si vide sottrarre i dati delle carte di credito di circa 40 milioni di utenti, grazie a del malware installato nei sistemi di pagamento POS. Nonostante Target avesse investito cifre molto importanti nel monitoraggio continuo della propria rete informatica, l’attacco fu messo a segno tramite i codici di accesso rubati a un suo fornitore in apparenza slegato dagli acquisti: una ditta della Pennsylvania che faceva impianti di condizionamento.

Le modifiche apportate fisicamente di nascosto ai dispositivi forniti da terzi non sono un’esclusiva dei criminali. Grazie alle rivelazioni di Edward Snowden, per esempio, sappiamo che l’NSA statunitense [Ars Technica] ha intercettato server, router e altri apparati per reti informatiche mentre venivano spediti ai rispettivi acquirenti che voleva mettere sotto sorveglianza, li ha rimossi accuratamente dagli imballaggi, vi ha installato del software nascosto (più precisamente del firmware, ossia il software di base del dispositivo) e poi li ha reimballati, ripristinando tutti i sigilli di sicurezza, prima di reimmetterli nella filiera di spedizione.

Altri esempi di attacco alla catena di approvvigionamento sono Stuxnet, un malware che nel 2010 danneggiò seriamente il programma nucleare iraniano prendendo di mira il software degli apparati di controllo di una specifica azienda europea, usati nelle centrifughe di raffinazione del materiale nucleare in Iran, e NotPetya, un virus che nel 2017 fu inserito negli aggiornamenti di un programma di contabilità molto diffuso in Ucraina. I clienti scaricarono fiduciosamente gli aggiornamenti e si ritrovarono con i computer bloccati, i dati completamente cifrati e una richiesta di riscatto.

C’è anche un caso di supply chain attack che ci tocca molto da vicino, ed è quello della Crypto AG [sintesi su Disinformatico.info], l’azienda svizzera che per decenni ha venduto ai governi e alle forze armate di numerosi paesi del mondo degli apparati di crittografia molto sofisticati, che però a seconda del paese di destinazione venivano a volte alterati segretamente in modo da consentire ai servizi segreti statunitensi e tedeschi di decrittare facilmente le comunicazioni cifrate diplomatiche, governative e militari di quei paesi. In questo caso l’attacco proveniva direttamente dall’interno dell’azienda, ma il principio non cambia: il bersaglio veniva attaccato non frontalmente, ma attraverso uno dei fornitori di cui si fidava.


Difendersi da questo tipo di attacchi non è facile, perché spesso il committente non conosce bene il fornitore, e a sua volta quel fornitore deve conoscere bene i propri fornitori, perché non è la prima volta che un governo o un’organizzazione criminale costituiscono ditte fittizie e si piazzano sul mercato offrendo prodotti o servizi di cui il bersaglio ha bisogno.

Gli esperti raccomandano di ridurre al minimo indispensabile il numero dei fornitori, di visitarli spesso per verificare che siano autentici e non delle semplici scatole cinesi di copertura, di instillare in ogni fornitore, anche nel più secondario, una cultura della sicurezza che invece spesso manca completamente, e di adottare hardware e software che incorporino direttamente delle funzioni di verifica e di sicurezza contro le manomissioni. Ma per la maggior parte delle organizzazioni tutto questo ha costi insostenibili, e così gli attacchi alla catena di approvvigionamento prosperano e, secondo i dati delle società di sicurezza informatica, sono in costante aumento.

Lo schema di questi attacchi ha tre caratteristiche particolari che lo distinguono da altri tipi di attacco: la prima caratteristica è la necessità di disporre di risorse tecniche e logistiche enormi. Nel caso di cui si parla in questi giorni, per esempio, chi lo ha eseguito ha dovuto identificare marche e modelli usati dai membri di Hezbollah, infiltrarsi tra i fornitori fidati o intercettarne le spedizioni in modo invisibile, e progettare, testare e costruire le versioni modificate di migliaia di esemplari dei dispositivi, appoggiandosi a sua volta a fornitori di competenze tecnologiche ed esplosivistiche e di componenti elettronici che fossero capaci di mantenere il segreto.

La seconda caratteristica è invece più sottile. In aggiunta al tremendo bilancio di vite umane, impossibile da trascurare, questi attacchi hanno il risultato di creare angoscia e sfiducia diffusa in tutta l’opinione pubblica verso ogni sorta di tecnologia, creando falsi miti e diffidenze inutili e devastando la reputazione delle marche coinvolte.

Ma la terza caratteristica è quella più pericolosa e in questo caso potenzialmente letale. Chi si inserisce di nascosto in una catena di approvvigionamento raramente ne ha il pieno controllo, per cui non può essere certo che qualcuno dei prodotti che ha sabotato non finisca in mani innocenti invece che in quelle dei bersagli designati, e agisca colpendo chi non c’entra nulla, o rimanga in circolazione dopo l’attacco.

Finché si tratta di malware che causa perdite di dati, il danno potenziale a terzi coinvolti per errore è solitamente sopportabile; ma in questo caso che insanguina la cronaca è difficile, per chi ha lanciato questo attacco, essere certo che tutti quei dispositivi modificati siano esplosi, e così in Libano e in Siria probabilmente circolano ancora, e continueranno a lungo a circolare, dei cercapersone e dei walkie-talkie che sono imbottiti di esplosivo a insaputa dei loro utenti.

Chissà se chi ha concepito questi attacchi dorme sonni tranquilli.


2024/09/22 19:00: La teoria alternativa di Umberto Rapetto

Su La Regione Ticino è stato pubblicato un articolo nel quale il generale della Guardia di Finanza Umberto Rapetto, “già comandante del Gruppo Anticrimine Tecnologico, per anni docente di Open Source Intelligence alla Nato School di Oberammergau (D)”, afferma che l’esplosivo sarebbe stato inserito nei dispositivi non da un aggressore esterno, ma da Hezbollah, ossia dall’utente stesso.

A suo dire, la fornitura di cercapersone sarebbe stata

“commissionata pretendendo che all’interno del normale involucro del prodotto di serie sia ospitata una piccolissima carica esplosiva e che il software includa le istruzioni per attivare la deflagrazione”

in modo da costituire una sorta di meccanismo di autodistruzione da usare qualora un dispositivo fosse caduto in mani nemiche. Non solo: secondo Rapetto, la carica sarebbe stata installata addirittura a insaputa degli stessi affiliati di Hezbollah che usavano i walkie-talkie e i cercapersone modificati, allo scopo di eliminare anche loro qualora fossero stati rapiti:

“Non solo il minuscolo aggeggio non deve spianare la strada all’intelligence, ma deve anche evitare che il suo possessore eventualmente catturato possa raccontare cose riservate e compromettere la sorte dell’organizzazione […] il dispositivo non è più in grado di offrire spunti agli 007 avversari e anche il proprio agente – ucciso o gravemente ferito – perde la possibilità di confessare”.

A supporto di questa teoria non vengono portate prove, e finora non ho trovato nessun’altra persona esperta che abbia proposto questa ricostruzione degli eventi.

Niente Panico RSI – Puntata del 2024/09/23

Etichette

Stamattina è andata in onda una nuova puntata in diretta di Niente Panico, il programma che conduco insieme a Rosy Nervi sulla Rete Tre della Radiotelevisione Svizzera.

La puntata è riascoltabile qui oppure nell’embed qui sotto. Le puntate vengono pubblicate a questo link:

I temi della puntata

L’account Instagram della settimana: @combophoto.

La bufala della settimana: il falso allarme per il tonno radioattivo (da Bufale.net).

Intelligenza artificiale e musica: Suno lancia la funzione Covers per ricreare le canzoni usando vari stili “un po’ come applicare un filtro a una foto” e usabile anche partendo da “un canto amatoriale sotto la doccia […] Per i musicisti e i produttori, Covers offre un’opportunità unica di sperimentare diversi arrangiamenti e stili senza perdere tempo” (Punto Informatico).

Prova pratica di Suno: ho creato un account gratuito, ho immesso il prompt “una canzone pop dedicata a due conduttori radiofonici, Rosy e Paolo, che portano informazione e allegria”, in italiano, e Suno mi ha generato questo brano, che è quello che abbiamo anche trasmesso in diretta, e anche questa versione alternativa un po’ meno brillante.

Sottolineo che tutto quello che sentite è stato generato pari pari dall’intelligenza artificiale di Suno, senza alcun mio intervento di rifinitura: il testo (in italiano e in rima), la voce del cantante, la melodia e gli strumenti.

L’intervista impossibile: Abbiamo ricordato l’anniversario della nascita di Ray Charles (23 settembre 1930). A titolo dimostrativo, anche qui tutto è stato creato pari pari dall’IA.

Per prima cosa ho chiesto a ChatGPT “leggi questa biografia di Ray Charles https://it.wikipedia.org/wiki/Ray_Charles e prepara quattro domande vivaci e intelligenti per un’intervista a Ray Charles come se fosse ancora vivo”.

La risposta di ChatGPT:

Ecco quattro domande vivaci e intelligenti per un’intervista a Ray Charles:

Ray, sei stato un pioniere nel fondere gospel, jazz e blues, creando il soul. Come hai trovato il coraggio di rompere le regole musicali e inventare un suono così unico?

Dopo la perdita della vista, la musica è diventata la tua vera visione. In che modo questa esperienza ha cambiato il tuo modo di sentire e interpretare la musica?

“Georgia on My Mind” è uno dei tuoi brani più amati. Cosa rappresenta per te questo pezzo e perché pensi abbia toccato così tante persone?

Hai affrontato momenti difficili, inclusa la dipendenza. Qual è stato il momento in cui hai sentito di poter riprendere il controllo della tua vita e della tua carriera?

Solitamente per queste “interviste” usiamo Character.ai, che però non ha un profilo già pronto dedicato a Ray Charles, per cui ho chiesto a ChatGPT di generare anche le presunte risposte, dandogli l’istruzione “Usando le informazioni che hai su Ray Charles, crea le risposte a queste domande”.

ChatGPT ha risposto così:

Ecco delle risposte immaginate da Ray Charles alle tue domande:

Ray, sei stato un pioniere nel fondere gospel, jazz e blues. Come hai trovato il coraggio di rompere le regole musicali e creare un suono così unico? “Ho sempre seguito il mio cuore. La musica è una cosa viva, non puoi rinchiuderla in scatole. Venivo da una tradizione di gospel, ma il blues e il jazz mi parlavano, così ho combinato tutto. Non era pianificato, era solo quello che sentivo.”

Dopo la perdita della vista, la musica è diventata la tua vera visione. In che modo questa esperienza ha cambiato il tuo modo di sentire e interpretare la musica? “Perdere la vista mi ha fatto ascoltare il mondo in un modo completamente nuovo. Ogni nota, ogni ritmo aveva un significato più profondo. La musica è diventata il mio modo di vedere, di comunicare e di esprimere le emozioni che non potevo vedere ma che sentivo dentro di me.”

“Georgia on My Mind” è uno dei tuoi brani più amati. Cosa rappresenta per te questo pezzo e perché pensi abbia toccato così tante persone? “Georgia è più di una canzone per me, è come tornare a casa, dove ho iniziato tutto. Credo che tocchi le persone perché parla di nostalgia, di affetto per le proprie radici. Chiunque può connettersi con quel sentimento.”

Hai affrontato momenti difficili, inclusa la dipendenza. Qual è stato il momento in cui hai sentito di poter riprendere il controllo della tua vita e della tua carriera? “Il momento più difficile è stato rendermi conto che la dipendenza mi stava portando via tutto, ma la musica mi ha sempre dato una ragione per lottare. Quando ho capito che avevo ancora tanto da dare, è stato lì che ho deciso di riprendere il controllo, per me stesso e per la mia musica.”

Ho poi preso questi testi e li ho fatti leggere a une delle voci di ElevenLabs.io. La cosa che mi inquieta è che le domande sono dannatamente pertinenti e probabilmente migliori di quelle che sarebbero venute in mente a me.

Podcast RSI – Auto connesse “hackerabili”, stavolta tocca a Kia. Ma a fin di bene

Questo è il testo della puntata del 4 ottobre 2024 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesYouTube MusicSpotify e feed RSS.


[CLIP: audio dello sblocco di una Kia parcheggiata]

I rumori che state ascoltando in sottofondo sono quelli di un hacker che si avvicina a un’auto parcheggiata, che non è la sua, ne immette il numero di targa in una speciale app sul suo smartphone, e ne sblocca le portiere.

L’auto è un modello recentissimo, della Kia, e l’hacker può ripetere questa dimostrazione con qualunque esemplare recente di questa marca semplicemente leggendo il numero di targa del veicolo scelto come bersaglio. Non gli serve altro.

Questa è la storia di come si fa a “hackerare” un’automobile oggi, grazie alla tendenza sempre più diffusa di interconnettere i veicoli e consentirne il monitoraggio e il comando remoto via Internet. In questo caso l’“hackeraggio” è opera di un gruppo di informatici che agisce a fin di bene, e questa specifica vulnerabilità è stata risolta, ma conoscere la tecnica adoperata per ottenere questo risultato imbarazzante e preoccupante è utile sia per chi deve proteggere la propria auto da questa nuova frontiera dei furti sia per chi deve pensare alla sicurezza informatica in generale, perché mostra come scovare vulnerabilità inaspettate in qualunque contesto e rivela in modo intrigante come agisce un intruso informatico.

Benvenuti alla puntata del 4 ottobre 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Questa storia inizia due anni fa, ad autunno del 2022, quando un gruppo di hacker statunitensi, durante un viaggio per partecipare a una conferenza di sicurezza informatica a Washington, si imbatte per caso in una falla di sicurezza degli onnipresenti monopattini elettrici a noleggio e con relativa facilità riesce a farne suonare in massa i clacson e lampeggiare i fanali semplicemente agendo in modo particolare sulla normale app usata per gestire questi veicoli.

[CLIP: audio dei monopattini]

Incuriositi dal loro successo inaspettatamente facile, i membri del gruppo provano a vedere se la stessa tecnica funziona anche sulle automobili, ed è un bagno di sangue: Kia, Honda, Infiniti, Nissan, Acura, Mercedes-Benz, Hyundai, Genesis, BMW, Rolls-Royce, Ferrari, Ford, Porsche, Toyota, Jaguar, Land Rover risultano tutte attaccabili nello stesso modo. Un aggressore può farne suonare ripetutamente il clacson, avviarle e spegnerle, aprirne e chiuderne le serrature, e tracciarne gli spostamenti, tutto da remoto, senza dover essere fisicamente vicino al veicolo.

Questo gruppo di informatici* è guidato da Sam Curry, che di professione fa appunto l’hacker e il bug bounty hunter, ossia va a caccia di vulnerabilità in ogni sorta di dispositivo, software o prodotto informatico per il quale il costruttore o lo sviluppatore offre una ricompensa monetaria a chi la scopre e la comunica in modo eticamente corretto.

*Il gruppo è composto da Sam Curry, Neiko Rivera, Brett Buerhaus, Maik Robert, Ian Carroll, Justin Rhinehart e Shubham Shah.

In un suo articolo di gennaio 2023 Curry spiega pubblicamente la tecnica usata per prendere il controllo delle auto e per ottenere dati particolarmente preziosi e sensibili come l’elenco di tutti i clienti della Ferrari.

In sostanza, invece di tentare di attaccare frontalmente il singolo veicolo, gli informatici prendono di mira il sistema centrale di gestione remota, il portale Web attraverso il quale i dipendenti e i concessionari delle singole case automobilistiche amministrano i veicoli. Nel caso di BMW e Rolls Royce, per esempio, si accorgono che è sufficiente una singola riga di comandi inviata via Internet per ottenere un codice di recupero che consente di prendere il controllo di un account amministrativo e da lì acquisire i dati personali dei clienti e comandare le loro automobili.

A questo punto gli hacker contattano le case costruttrici e le informano dei loro problemi, che vengono risolti, chiudendo queste falle. In totale, i veicoli a rischio sono circa 15 milioni, includono anche i mezzi di soccorso, e le scoperte del gruppo di informatici vengono anche segnalate al Congresso degli Stati Uniti.

Un imbarazzo collettivo del genere dovrebbe essere un campanello d’allarme per queste industrie, che dovrebbero in teoria avviare un ampio riesame interno delle proprie procedure per individuare altre eventuali falle prima che vengano scoperte, non da informatici di buon cuore come in questo caso, ma da criminali, ai quali potrebbe interessare moltissimo ricattarle, minacciando per esempio di rivelare i nomi e i dati personali dei loro clienti di alto profilo oppure paralizzando la loro rete di gestione delle auto. Ma la realtà racconta una storia molto differente.


Passano due anni, e Sam Curry e il suo gruppo* rivisitano i servizi online delle case automobilistiche per vedere come stanno le cose dopo la raffica di falle scoperte e risolte.

*Specificamente Curry insieme a Neiko Rivera, Justin Rhinehart e Ian Carroll.

L’11 giugno 2024 scoprono delle nuove vulnerabilità nei veicoli Kia che permettono di prendere il controllo delle funzioni di gestione remota semplicemente partendo dal numero di targa. L’attacco richiede mezzo minuto, funziona su tutti i modelli Kia dotati di connettività, e soprattutto funziona anche se il proprietario del veicolo non ha un abbonamento ai servizi di controllo remoto, che Kia chiama Kia Connect.

Gli hacker trovano inoltre che è possibile procurarsi informazioni personali del proprietario dell’auto, compreso il suo nome, il suo numero di telefono, il suo indirizzo di mail e il suo indirizzo di casa, diventando così, come spiega Curry, “un secondo utente invisibile del veicolo della vittima senza che quella vittima ne sappia nulla”.

Così Sam Curry e i suoi colleghi costruiscono un’app dimostrativa, grazie alla quale possono semplicemente immettere il numero di targa di un veicolo Kia e nient’altro e trovarsi, nel giro di una trentina di secondi, in grado di comandare da remoto quel veicolo.

Prima che i proprietari di Kia all’ascolto si facciano prendere dal panico, sottolineo e ripeto che il problema è già stato risolto: anche questa vulnerabilità è stata corretta, l’app di attacco non è mai stata rilasciata al pubblico, e Kia ha verificato che la falla che sto per descrivere non è mai stata usata in modo ostile.

La tecnica usata a fin di bene dagli hacker è diversa da quella adoperata in passato: mentre prima avevano agito al livello del singolo veicolo, ora hanno provato a un livello più alto. Scrive Curry: “e se ci fosse un modo per farsi registrare come concessionario, generare un codice di accesso, e poi usarlo?”. E infatti c’è.

Curry e i suoi colleghi mandano una semplice riga di comandi accuratamente confezionati a kiaconnect.kdealer.com, dando il proprio nome, cognome, indirizzo di mail e specificando una password, e vengono accettati senza battere ciglio. Per il sistema informatico di Kia, loro sono a questo punto un concessionario come tanti altri.

Questo permette a loro di immettere un VIN, ossia il numero identificativo unico di un veicolo, e ottenere in risposta i dati personali del proprietario di quel veicolo, compreso il suo indirizzo di mail, che è la chiave per l’eventuale attivazione dei servizi di comando remoto.

Avendo questo indirizzo e potendosi presentare al sistema informatico di Kia come concessionario, possono dire al sistema di aggiungere il loro indirizzo di mail a quelli abilitati a mandare comandi remoti all’auto, e a questo punto diventano pienamente padroni di telecomandare il veicolo del malcapitato utente.

Resta solo da scoprire il VIN del veicolo scelto come bersaglio, ma questo è relativamente facile. Molti veicoli riportano questo identificativo in maniera ben visibile, per esempio su una targhetta dietro il parabrezza, ma anche se il VIN non è in bella mostra e non c’è modo di avvicinarsi al veicolo per leggerlo è possibile iscriversi a uno dei tanti servizi che forniscono il VIN di un veicolo partendo dal suo numero di targa.


Visto che hanno trovato questo ultimo tassello del mosaico, Sam Curry e colleghi sono pronti per dimostrare il loro attacco. Avvisano immediatamente Kia, che risponde tre giorni dopo, e creano un’app che esegue automaticamente l’intero processo di intrusione: parte appunto dal numero di targa dell’auto presa di mira, che per ovvie ragioni è ben visibile, e poi interroga un servizio commerciale per ottenere il VIN corrispondente a quella targa.

Poi l’app si annuncia al sito di Kia come se fosse un concessionario, e si procura così l’indirizzo di mail associato al veicolo, aggiunge l’indirizzo di mail degli hacker a quello dell’utente legittimo, e infine promuove quell’indirizzo a utente principale.

A quel punto gli hacker, per restare nei limiti della dimostrazione non pericolosa e legale, noleggiano una Kia e registrano un video nel quale si vede che l’auto inizialmente chiusa a chiave diventa apribile, telecomandabile e localizzabile semplicemente immettendo nella loro app il suo numero di targa. Il 20 giugno mandano a Kia lo screenshot della loro app dimostrativa.

Passano varie settimane, e finalmente il 14 agosto Kia risponde dicendo che la vulnerabilità è stata corretta e che sta verificando che la correzione funzioni. Gli hacker, da parte loro, verificano che effettivamente la falla è stata turata e il 26 settembre scorso, pochi giorni fa, insomma, annunciano la loro scoperta pubblicandone i dettagli tecnici presso Samcurry.net.

Tutto è bene quel che finisce bene, si potrebbe pensare. La casa costruttrice ha preso sul serio la segnalazione di allarme degli hacker benevoli, cosa che non sempre succede, ha agito e ha risolto il problema. Ma tutto questo è stato possibile perché anche stavolta la falla, piuttosto grossolana, è stata scoperta da informatici ben intenzionati che hanno condiviso con l’azienda quello che avevano trovato. La prossima volta potrebbe non andare così bene e una nuova falla potrebbe finire nelle mani del crimine informatico organizzato.

Questa scoperta di una nuova grave vulnerabilità nella sicurezza delle automobili connesse, così di moda oggi, mette in evidenza i rischi e i vantaggi della crescente digitalizzazione nel settore automobilistico, che non sembra essere accompagnata da una corrispondente crescita dell’attenzione alla sicurezza informatica da parte dei costruttori. E noi consumatori, in questo caso, non possiamo fare praticamente nulla per rimediare.

Certo, questi veicoli connessi offrono grandi vantaggi in termini di comodità, con funzioni avanzate come il monitoraggio remoto, gli aggiornamenti del software senza recarsi in officina e i servizi di navigazione migliorati. Ma il loro collegamento a Internet, se non è protetto bene, li rende vulnerabili a possibili attacchi informatici, diventa un pericolo per la sicurezza del conducente e dei passeggeri, per esempio attraverso accessi non autorizzati ai sistemi critici del veicolo come i freni o l’acceleratore, e mette a rischio la privacy dei dati personali. Se è così facile accreditarsi come concessionari in un sistema informatico di un costruttore di auto, come abbiamo visto grazie a Sam Curry e ai suoi colleghi, vuol dire che la lezione di sicurezza non è stata ancora imparata a sufficienza.

Il caso di Kia, insomma, è un esempio da manuale di come agisce un aggressore informatico, e può essere esteso a qualunque attività che dipenda da Internet e dai computer. L’aspirante intruso è fantasioso e non attacca frontalmente ma cerca qualunque varco secondario lasciato aperto e lo usa come cuneo per penetrare gradualmente nei sistemi, andando sempre più in profondità. È quasi sempre molto più motivato e ossessivo di un difensore, che ha il problema di essere spesso poco apprezzato dal datore di lavoro, perché il suo lavoro è invisibile per definizione: quando opera bene non succede nulla e non ci si accorge di nulla.

Provate a guardare la vostra attività e chiedetevi se avete per caso blindato tanto bene la vostra porta principale ma avete dimenticato che per esempio l’ingresso dedicato ai fornitori è protetto “per comodità” da un PIN di accesso, che tutti quei fornitori puntualmente si annotano su un foglietto di carta appiccicato in bella vista sul cruscotto del loro furgone. Far esaminare le proprie difese dagli occhi di una persona esperta esterna può essere molto illuminante e può salvare da figuracce e disastri.

Fonte aggiuntiva

Flaw in Kia’s web portal let researchers track, hack cars (Ars Technica)