Salta al contenuto principale

RSI

Niente Panico RSI – Puntata del 2024/12/09

Ieri alle 9 è andata in onda una nuova puntata in diretta di Niente Panico, il programma che conduco insieme a Rosy Nervi sulla Rete Tre della Radiotelevisione Svizzera. La trasmissione è riascoltabile qui oppure nell’embed qui sotto. Le puntate sono elencate presso attivissimo.me/np.

I temi della puntata

Abbiamo dedicato l’intera puntata a raccontare chicche poco conosciute e aneddoti della vita e del curriculum di Elon Musk.

Podcast RSI – Le ginnaste mostruose di OpenAI rivelano i trucchi delle IA

Questo è il testo della puntata del 16 dicembre 2024 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS.


Il 9 dicembre scorso OpenAI, l’azienda che ha creato ChatGPT, ha rilasciato al pubblico Sora, un generatore di video basato sull’intelligenza artificiale, che era stato presentato a febbraio senza però renderlo pubblicamente disponibile. Con Sora, si descrive a parole la scena che si desidera, e il software produce il video corrispondente, in alta definizione.

Gli spezzoni dimostrativi sono straordinariamente realistici, e Sora a prima vista sembra essere un altro prodotto vincente e rivoluzionario di OpenAI, ma il giorno dopo il suo debutto ha iniziato a circolare in modo virale sui social network [Bluesky; X] un video, realizzato con Sora da un utente, che è così profondamente sbagliato e grottesco che diventa comico. Per qualche strano motivo, Sora sa generare di tutto, dai cani che corrono e nuotano alle persone che ascoltano musica ai paesaggi tridimensionali, ma è totalmente incapace di generare un video di una ginnasta che fa esercizi a corpo libero.

here's a Sora generated video of gymnastics

[image or embed]

— Peter Labuza (@labuzamovies.bsky.social) 11 dicembre 2024 alle ore 18:35

Il video diventato virale mostra appunto quella che dovrebbe essere una atleta che compie una serie di movimenti ginnici ma invece diventa una sorta di frenetica ameba fluttuante dal cui corpo spuntano continuamente arti a caso e le cui braccia diventano gambe e viceversa; dopo qualche secondo la testa le si stacca dal corpo e poi si ricongiunge. E non è l’unico video del suo genere.

Un risultato decisamente imbarazzante per OpenAI, ben diverso dai video dimostrativi così curati presentati dall’azienda. Un risultato che rivela una delle debolezze fondamentali delle intelligenze artificiali generative attuali e mette in luce il “trucco” sorprendentemente semplice usato da questi software per sembrare intelligenti.

Questa è la storia di quel trucco, da conoscere per capire i limiti dell’intelligenza artificiale ed evitare di adoperarla in modo sbagliato e pagare abbonamenti costosi ma potenzialmente inutili.

Benvenuti alla puntata del 16 dicembre 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Dieci mesi dopo il suo annuncio iniziale, OpenAI ha reso disponibile al pubblico il generatore di video Sora basato sull’intelligenza artificiale. Dandogli una descrizione, o prompt, Sora produce un video che può durare fino a venti secondi e rispecchia fedelmente la descrizione fornita.

Sora è la naturale evoluzione delle intelligenze artificiali generative: nel giro di pochi anni, dalla semplice produzione di testi siamo passati alla generazione di immagini, ormai diventate fotorealistiche, sempre partendo da un prompt testuale, e ora arrivano i video generati.

OpenAI non è l’unica azienda che ha presentato intelligenze artificiali che generano video: lo hanno già fatto Google, Runway, Kling e Minimax, giusto per fare qualche nome. Ma Sora sembrava essere molto superiore alla concorrenza, perlomeno fino al momento in cui ha iniziato a circolare il video della ginnasta ameboide.

Va detto che tutti i prodotti attuali di generazione di video hanno gli stessi problemi: spesso producono videoclip mostruosi e deformi, e tocca generarne tanti per ottenerne uno buono. Ma come mai il prodotto di punta di un’azienda leader nel settore fallisce miseramente proprio con la ginnastica artistica?

Per capirlo bisogna ragionare sul modo in cui lavorano le intelligenze artificiali: vengono addestrate fornendo loro un numero enorme di testi, foto o video di esempio di vario genere. Le foto e i video vengono accompagnati da una dettagliata descrizione testuale, una sorta di etichettatura. In questa fase di addestramento, l’intelligenza artificiale crea delle associazioni statistiche fra le parole e le immagini. Quando poi le viene chiesto di creare un testo, un’immagine o un video, attinge a questo vastissimo catalogo di associazioni e lo usa per il suo trucco fondamentale: calcolare il dato successivo più probabile.

Nel caso della generazione di testi, l’intelligenza artificiale inizia a scegliere una prima parola o sequenza di parole, basata sulla descrizione iniziale, e poi non fa altro che mettere in fila le parole statisticamente più probabili per costruire i propri testi. Nelle risposte di ChatGPT, per capirci, non c’è nessuna cognizione o intelligenza: quello che scrive è in sostanza la sequenza di parole più probabile. Sto semplificando, ma il trucco di base è davvero questo.

Lo ha detto chiaramente Sam Altman, il CEO di OpenAI, in una dichiarazione resa davanti a un comitato del Senato statunitense nel 2023:

La generazione attuale di modelli di intelligenza artificiale – dice – è costituita da sistemi di predizione statistica su vasta scala: quando un modello riceve la richiesta di una persona, cerca di prevedere una risposta probabile. Questi modelli operano in maniera simile al completamento automatico sugli smartphone […] ma a una scala molto più ampia e complessa […] – dice sempre Altman – Gli strumenti di intelligenza artificiale sono inoltre in grado di imparare i rapporti statistici fra immagini e descrizioni testuale e di generare nuove immagini basate su input in linguaggio naturale.

[fonte, pag. 2]

In altre parole, ChatGPT sembra intelligente perché prevede le parole o frasi più probabili dopo quelle immesse dall’utente. Nel caso dei video, un’intelligenza artificiale calcola l’aspetto più probabile del fotogramma successivo a quello corrente, basandosi sull’immenso repertorio di video che ha acquisito durante l’addestramento. Tutto qui. Non sa nulla di ombre o forme o di come si muovono gli oggetti o le persone (o, in questo caso, gli arti delle ginnaste): sta solo manipolando pixel e probabilità. Sora affina questa tecnica tenendo conto di numerosi fotogrammi alla volta, ma il principio resta quello.

Ed è per questo che va in crisi con la ginnastica.


Come spiega Beni Edwards su Ars Technica, i movimenti rapidi degli arti, tipici della ginnastica a corpo libero, rendono particolarmente difficile prevedere l’aspetto corretto del fotogramma successivo usando le tecniche attuali dell’intelligenza artificiale. E così Sora genera, in questo caso, un collage incoerente di frammenti dei video di ginnastica a corpo libero che ha acquisito durante l‘addestramento, perché non sa quale sia l’ordine giusto nel quale assemblarli. E non lo sa perché attinge a medie statistiche basate su movimenti del corpo molto differenti tra loro e calcolate su una quantità modesta di video di ginnastica a corpo libero.

Non è un problema limitato alla ginnastica artistica: in generale, se il tipo di video chiesto dall’utente è poco presente nell’insieme di dati usato per l’addestramento, l’intelligenza artificiale è costretta a inventarsi i fotogrammi, creando così movimenti mostruosi e arti supplementari che sono l’equivalente video delle cosiddette “allucinazioni” tipiche delle intelligenze artificiali che generano testo.

Sora, in questo senso, è nonostante tutto un passo avanti: alcuni generatori di video concorrenti usciti nei mesi scorsi facevano addirittura svanire le atlete a mezz’aria o le inglobavano nei tappeti o negli attrezzi, in una sorta di versione IA del terrificante morphing del robot T-1000 alla fine di Terminator 2: Il giorno del giudizio.

Questo suggerisce una possibile soluzione al problema: aumentare la quantità e la varietà di video dati in pasto all’intelligenza artificiale per addestrarla, ed etichettare con molta precisione i contenuti di quei video. Ma non è facile, perché quasi tutti i video sono soggetti al copyright. Soprattutto quelli degli eventi sportivi, e quindi non sono liberamente utilizzabili per l’addestramento.

Sora fa sorridere con i suoi video mostruosamente sbagliati in questo campo, ma non vuol dire che sia da buttare: è comunque una tappa molto importante verso la generazione di video di qualità. Se i video che avete bisogno di generare rappresentano scene comuni, come una persona che cammina o gesticola oppure un paesaggio, Sora fa piuttosto bene il proprio mestiere e consente anche di integrare oggetti o immagini preesistenti nei video generati.

Al momento, però, non è disponibile in Europa, salvo ricorrere a VPN o soluzioni analoghe, e accedere alle funzioni di generazione video costa: gli abbonati che pagano 20 dollari al mese a ChatGPT possono creare fino a 50 video al mese, in bassa qualità [480p] oppure possono crearne di meno ma a qualità maggiore. Gli abbonati Pro, che pagano ben 200 dollari al mese, possono chiedere risoluzioni maggiori e durate più lunghe dei video generati.

Se volete farvi un’idea delle attuali possibilità creative di Sora, su Vimeo trovate per esempio The Pulse Within, un corto creato interamente usando spezzoni video generati con questo software, e sul sito di Sora, Sora.com, potete sfogliare un ricco catalogo di video dimostrativi.

Siamo insomma ancora lontani dai film creati interamente con l’intelligenza artificiale, ma rispetto a quello che si poteva fare un anno fa, i progressi sono stati enormi. Ora si tratta di decidere come usare questi nuovi strumenti e le loro nuove possibilità creative.

Infatti il rapidissimo miglioramento della qualità di questi software e la loro disponibilità di massa significano anche che diventa più facile e accessibile produrre deepfake iperrealistici o, purtroppo, anche contenuti di abuso su adulti e minori. Sora ha già implementato filtri che dovrebbero impedire la generazione di questo tipo di video, e i contenuti prodotti con Sora hanno delle caratteristiche tecniche che aiutano a verificare se un video è sintetico oppure no, ma questo è un settore nel quale la gara fra chi mette paletti e chi li vuole scardinare non conosce pause. Nel frattempo, noi comuni utenti possiamo solo restare vigili e consapevoli che ormai non ci si può più fidare neppure dei video. A meno che, per ora, siano video di ginnastica artistica.

Fonti aggiuntive

Ten months after first tease, OpenAI launches Sora video generation publicly, Ars Technica

Niente Panico RSI – Puntata del 2024/12/16

Lunedì mattina è andata in onda una nuova puntata in diretta di Niente Panico, il programma che conduco insieme a Rosy Nervi sulla Rete Tre della Radiotelevisione Svizzera. La trasmissione è riascoltabile sul sito della RSI e nell’embed qui sotto; la raccolta completa delle puntate è presso attivissimo.me/np.

L’Instagram della settimana è @focusart80, artista digitale che usa l’intelligenza artificiale e altre tecniche di elaborazione delle immagini per creare persone e scenari surreali. Abbiamo parlato di concerti in realtà virtuale, da Travis Scott ad Ariana Grande, di unboxing e di fare soldi con Twitch. La AI-intervista ha avuto come ospite (ovviamente sintetico) Vasilij Kandinskij.

Questa è l’ultima puntata di Niente Panico per il 2024; il programma tornerà il 7 gennaio prossimo, per una sola volta di martedì, e poi riprenderà il suo orario abituale del lunedì alle 9 su Rete Tre.

Podcast RSI – Google Maps diventa meno ficcanaso

Questo è il testo della puntata del 23 dicembre 2024 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il podcast riprenderà il 13 gennaio 2025.


Se avete ricevuto una strana mail che sembra provenire da Google e che parla di “spostamenti” e “cronologia delle posizioni” ma non avete idea di cosa voglia dire, siete nel posto giusto per levarvi il dubbio e capire se e quanto siete stati pedinati meticolosamente da Google per anni: siete nella puntata del 23 dicembre 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica, e dedicato in questo caso agli importanti cambiamenti della popolarissima app Google Maps. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Se siete fra i tantissimi utenti che hanno installato e usano Google Maps sullo smartphone, forse non vi siete mai accorti che questa utilissima app non vi dice soltanto dove siete e dove si trovano i punti di interesse intorno a voi, ma si ricorda ogni vostro spostamento sin da quando l’avete installata, anche quando le app di Google non sono in uso. In altre parole, Google sa dove siete stati, minuto per minuto, giorno per giorno, e lo sa molto spesso per anni di fila.

Infatti se andate nell’app e toccate l’icona del vostro profilo, compare un menu che include la voce Spostamenti. Toccando questa voce di menu compare un calendario con una dettagliatissima cronologia di tutti i vostri spostamenti, che include gli orari di partenza e di arrivo e anche il mezzo di trasporto che avete usato: bici, auto, nave, treno, aereo, piedi.

Google infatti usa i sensori del telefono per dedurre la vostra posizione: non solo il tradizionale GPS, che funziona solo all’aperto, ma anche il Wi-Fi e il Bluetooth, che permettono il tracciamento della posizione anche al coperto. Anche se non vi collegate a una rete Wi-Fi mentre siete in giro, Google Maps fa una scansione continua delle reti Wi-Fi presenti nelle vicinanze e confronta i loro nomi con una immensa mappa digitale, costantemente aggiornata, delle reti Wi-Fi in tutto il mondo. Se trova una corrispondenza, deduce che siete vicini a quella rete e quindi sa dove vi trovate, anche al chiuso.

Moltissime persone non sono a conoscenza di questo tracciamento di massa fatto da Google. Quando vado nelle scuole a presentare agli studenti le questioni di sicurezza e privacy informatica, mostrare a uno specifico studente la sua cronologia degli spostamenti archiviata da Google per anni è una delle dimostrazioni più efficaci e convincenti della necessità di chiedersi sempre quali dati vengono raccolti su di noi e come vengono usati. Sposta immediatamente la conversazione dal tipico “Eh, ma quante paranoie” a un più concreto “Come faccio a spegnerla?”

Disattivare il GPS non basta, perché Maps usa appunto anche il Wi-Fi per localizzare il telefono e quindi il suo utente. Bisognerebbe disattivare anche Wi-Fi e Bluetooth, ma a quel punto lo smartphone non sarebbe più uno smartphone, perché perderebbe tutti i servizi basati sulla localizzazione, dal navigatore alla ricerca del ristorante o Bancomat più vicino, e qualsiasi dispositivo Bluetooth, come cuffie, auricolari o smartwatch, cesserebbe di comunicare. Si potrebbe disabilitare GPS, Bluetooth e Wi-Fi solo per Maps, andando nei permessi dell’app, ma è complicato e molti utenti non sanno come fare e quindi rischiano di disabilitare troppi servizi e trovarsi con un telefono che non funziona più correttamente.

Maps permette di cancellare questa cronologia, per un giorno specifico oppure integralmente, ma anche in questo caso viene il dubbio: e se un domani ci servisse sapere dove eravamo in un certo giorno a una certa ora? Per esempio per catalogare le foto delle vacanze oppure per dimostrare a un partner sospettoso dove ci trovavamo e a che ora siamo partiti e arrivati? Non ridete: ci sono persone che lo fanno. Lo so perché le incontro per lavoro. Ma questa è un’altra storia.

Insomma, sbarazzarsi di questo Grande Fratello non è facile. Ma ora è arrivata una soluzione alternativa, ed è questo il motivo della mail di Google.


Il titolo della mail firmata Google, nella versione italiana, è “Vuoi conservare i tuoi Spostamenti? Decidi entro il giorno 18 maggio 2025”, e il messaggio di solito arriva effettivamente da Google, anche se è probabile che i soliti sciacalli e truffatori della Rete invieranno mail false molto simili per cercare di ingannare gli utenti, per cui conviene comunque evitare di cliccare sui link presenti nella mail di avviso e andare direttamente alle pagine di Google dedicate a questo cambiamento; le trovate indicate su Attivissimo.me.

La prima buona notizia è che se siete sicuri di non voler conservare questa cronologia dei vostri spostamenti, è sufficiente non fare nulla: i dati e le impostazioni degli Spostamenti verranno disattivati automaticamente dopo il 18 maggio 2025 e Google smetterà di tracciarvi, perlomeno in questo modo.

Se invece volete conservare in tutto o in parte questa cronologia, dovete agire, e qui le cose si fanno complicate. Il grosso cambiamento, infatti, è che i dati della cronologia degli spostamenti non verranno più salvati sui server di Google ma verranno registrati localmente sul vostro telefono, in maniera molto meno invadente rispetto alla situazione attuale.

Per contro, Google avvisa che dopo il 18 maggio, se non rinunciate alla cronologia, i dati sui vostri spostamenti verranno raccolti da tutti i dispositivi che avete associato al vostro account Google, quindi non solo dal vostro telefono ma anche da eventuali tablet o computer o altri smartphone, e verranno raccolti anche se avevate disattivato la registrazione degli spostamenti su questi altri dispositivi.

Un’altra novità importante è che la cronologia degli spostamenti non sarà più disponibile nei browser Web, ma sarà accessibile soltanto tramite l’app Google Maps e soltanto sul telefono o altro dispositivo sul quale avete scelto di salvare la copia locale della cronologia.

La procedura di cambiamento di queste impostazioni di Google Maps è semplice e veloce ed è usabile anche subito, senza aspettare maggio del 2025. Con pochi clic si scelgono le preferenze desiderate e non ci si deve pensare più. Se si cambia idea in futuro, si possono sempre cambiare le proprie scelte andando a myactivity.google.com/activitycontrols oppure entrare nell’app Google Maps e scegliere il menu Spostamenti. I dati scaricati localmente, fra l’altro, occupano pochissimo spazio: la mia cronologia degli spostamenti, che copre anni di viaggi, occupa in tutto meno di tre megabyte.

Resta un ultimo problema: se i dati della cronologia degli spostamenti vi servono e d’ora in poi verranno salvati localmente sul vostro telefono, come farete quando avrete bisogno di cambiare smartphone? Semplice: Google offre la possibilità di fare un backup automatico dei dati, che viene salvato sui server di Google e può essere quindi importato quando si cambia telefono.

Ma allora siamo tornati al punto di partenza e i dati della cronologia restano comunque a disposizione di Google? No, perché il backup è protetto dalla crittografia e Google non può leggerne il contenuto, come descritto nelle istruzioni di backup fornite dall’azienda.


Resta solo da capire cosa fa esattamente Google con i dati di localizzazione di milioni di utenti. Sul versante positivo, questi dati permettono di offrire vari servizi di emergenza, per esempio comunicando ai soccorritori dove vi trovate. Se andate a correre e usate lo smartphone o smartwatch per misurare le vostre prestazioni, la localizzazione permette di tracciare il vostro chilometraggio. Se cercate informazioni meteo o sul traffico, la localizzazione consente di darvi più rapidamente i risultati che riguardano la zona dove vi trovate. Se smarrite il vostro telefono, questi dati permettono di trovarlo più facilmente. E se qualcuno accede al vostro account senza il vostro permesso, probabilmente lo fa da un luogo diverso da quelli che frequentate abitualmente, e quindi Google può insospettirsi e segnalarvi la situazione anomala.

Sul versante meno positivo, le informazioni di localizzazione permettono a Google di mostrarvi annunci più pertinenti, per esempio i negozi di scarpe nella vostra zona se avete cercato informazioni sulle scarpe in Google. In dettaglio, Google usa non solo i dati di posizione, ma anche l’indirizzo IP, le attività precedenti, l’indirizzo di casa e di lavoro che avete memorizzato nel vostro account Google, il fuso orario del browser, i contenuti e la lingua della pagina visitata, il tipo di browser e altro ancora. Tutti questi dati sono disattivabili, ma la procedura è particolarmente complessa.

Non stupitevi, insomma, se il vostro smartphone a volte vi offre informazioni o annunci così inquietantemente azzeccati e pertinenti da farvi sospettare che il telefono ascolti le vostre conversazioni. Google non lo fa, anche perché con tutti questi dati di contorno non gli servirebbe a nulla farlo. E se proprio non volete essere tracciati per qualunque motivo, c’è sempre l’opzione semplice e pratica di lasciare il telefono a casa o portarlo con sé spento.

Usare Google senza esserne usati è insomma possibile, ma servono utenti informati e motivati, non cliccatori passivi. Se sono riuscito a darvi le informazioni giuste per decidere e per motivarvi, questo podcast ha raggiunto il suo scopo. E adesso vado subito anch’io a salvare la mia cronologia degli spostamenti.

Niente Panico RSI – Puntata del 2025/01/07

È andata in onda stamattina alle 9 una nuova puntata in diretta di Niente Panico, il programma che conduco insieme a Rosy Nervi sulla Rete Tre della Radiotelevisione Svizzera. La trasmissione è riascoltabile presso www.rsi.ch/rete-tre/programmi/intrattenimento/serotonina oppure nell’embed qui sotto.

Lo streaming in diretta della Rete Tre è presso www.rsi.ch/audio/rete-tre/live; la raccolta completa delle puntate è presso Attivissimo.me/np.

Podcast RSI – Davvero la scienza dice che “il fact-checking non funziona”?

Questo è il testo della puntata del 13 gennaio 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS.


Pochi giorni fa Meta ha annunciato che chiuderà il proprio programma di fact-checking gestito tramite esperti esterni e lo sostituirà con le cosiddette Community notes, ossia delle annotazioni redatte dagli stessi utenti dei suoi social network, come ha già fatto la piattaforma concorrente X di Elon Musk.

Questa decisione, che per citare un titolo del Corriere della Sera è stata vista come una “resa definitiva a Trump (e Musk)”, ha rianimato la discussione su come contrastare la disinformazione. Walter Quattrociocchi, professore ordinario dell’Università La Sapienza di Roma, ha dichiarato che “Il fact-checking è stato un fallimento, ma nessuno vuole dirlo”, aggiungendo che “[l]a comunità scientifica lo aveva già dimostrato”. Queste sono sue parole in un articolo a sua firma pubblicato sullo stesso Corriere.

Detta così, sembra una dichiarazione di resa incondizionata della realtà, travolta e sostituita dai cosiddetti “fatti alternativi” e dai deliri cospirazionisti. Sembra un’ammissione che non ci sia nulla che si possa fare per contrastare la marea montante di notizie false, di immagini fabbricate con l’intelligenza artificiale, di propaganda alimentata da interessi economici o politici, di tesi di complotto sempre più bizzarre su ogni possibile argomento. I fatti hanno perso e le fandonie hanno vinto.

Se mi concedete di portare per un momento la questione sul piano personale, sembra insomma che la scienza dica che il mio lavoro di “cacciatore di bufale” sia una inutile perdita di tempo, e più in generale lo sia anche quello dei miei tanti colleghi che fanno debunking, ossia verificano le affermazioni che circolano sui social network e nei media in generale e le confermano o smentiscono sulla base dei fatti accertati.

È veramente così? Difendere i fatti è davvero fatica sprecata? Ragioniamoci su in questa puntata, datata 13 gennaio 2025, del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Nel suo annuncio pubblico, Mark Zuckerberg ha spiegato che il programma di fact-checking lanciato nel 2016 dalla sua piattaforma e basato su organizzazioni indipendenti specializzate in verifica dei fatti voleva dare agli utenti “più informazioni su quello che vedono online, in particolare sulle notizie false virali, in modo che potessero giudicare da soli quello che vedevano e leggevano”, scrive Zuckerberg.

Ma a suo dire questo approccio non ha funzionato perché anche gli esperti, dice, “come tutte le persone, hanno i propri pregiudizi e i propri punti di vista”, e quindi è giunto il momento di sostituire gli esperti esterni con gli utenti dei social network. Saranno loro, dice Zuckerberg, a “decidere quando i post sono potenzialmente ingannevoli e richiedono più contesto”, e saranno “persone che hanno una vasta gamma di punti di vista” a “decidere quale tipo di contesto è utile che gli altri utenti vedano”.

Zuckerberg non spiega, però, in che modo affidare la valutazione delle notizie agli utenti farà magicamente azzerare quei pregiudizi e quei punti di vista di cui parlava. In fin dei conti, gli utenti valutatori saranno un gruppo che si autoselezionerà invece di essere scelto in base a criteri di competenza. Anzi, l’autoselezione è già cominciata, perché Zuckerberg ha già pubblicato i link per iscriversi alla lista d’attesa per diventare valutatori su Facebook, Instagram e Threads. Mi sono iscritto anch’io per vedere dall’interno come funzionerà questa novità e raccontarvela.

Invece le Linee guida della community, ossia le regole di comportamento degli utenti di Meta, sono già state riscritte per togliere molte restrizioni sui discorsi d’odio, aggiungendo specificamente che dal 7 gennaio scorso sono consentite per esempio le accuse di malattia mentale o anormalità basate sul genere o l’orientamento sessuale* ed è accettabile paragonare le donne a oggetti e le persone di colore ad attrezzi agricoli oppure negare l’esistenza di una categoria di persone o chiedere l’espulsione di certi gruppi di individui.**

* Il 10 gennaio, Meta ha eliminato da Messenger i temi Pride e Non-Binary che aveva introdotto con così tanta enfasi rispettivamente 2021 e nel 2022 [404 media; Platformer.news]. Intanto Mark Lemley, avvocato per le questioni di copyright e intelligenza artificiale di Meta, ha troncato i rapporti con l’azienda, scrivendo su LinkedIn che Zuckerberg e Facebook sono in preda a “mascolinità tossica e pazzia neonazista”.

** Confesso che nel preparare il testo di questo podcast non sono riuscito a trovare parole giornalisticamente equilibrate per definire lo squallore infinito di un‘azienda che decide intenzionalmente di riscrivere le proprie regole per consentire queste specifiche forme di odio. E così ho contenuto sia il conato che la rabbia, e ho deciso di lasciare che le parole di Meta parlassero da sole.

Un’altra novità importante è che Meta smetterà di ridurre la visibilità dei contenuti sottoposti a verifica e gli utenti, invece di trovarsi di fronte a un avviso a tutto schermo che copre i post a rischio di fandonia, vedranno soltanto “un’etichetta molto meno invadente che indica che sono disponibili ulteriori informazioni per chi le vuole leggere”. In altre parole, sarà più facile ignorare gli avvertimenti.

Insomma, è un po’ come se una compagnia aerea decidesse che tutto sommato è inutile avere dei piloti addestrati e competenti ed è invece molto meglio lasciare che siano i passeggeri a discutere tra loro, insultandosi ferocemente, su come pilotare, quando tirare su il carrello o farlo scendere, quanto carburante imbarcare e cosa fare se l’aereo sta volando dritto verso una montagna. Ed è un po’ come se decidesse che è più saggio che gli irritanti allarmi di collisione vengano sostituiti da una voce sommessa che dice “secondo alcuni passeggeri stiamo precipitando, secondo altri no, comunque tocca lo schermo per ignorare tutta la discussione e guardare un video di tenerissimi gattini.

Va sottolineato che queste scelte di Meta riguardano per ora gli Stati Uniti e non si applicano in Europa, dove le leggi* impongono ai social network degli obblighi di moderazione e di mitigazione della disinformazione e dei discorsi d’odio.

*  In particolare il Digital Services Act o DSA, nota Martina Pennisi sul Corriere.

Ma una cosa è certa: questa nuova soluzione costerà molto meno a Meta. I valutatori indipendenti vanno pagati (lo so perché sono stato uno di loro per diversi anni), mentre gli utenti che scriveranno le Note della comunità lo faranno gratis. Cosa mai potrebbe andare storto?


Ma forse Mark Zuckerberg tutto sommato ha ragione, perché è inutile investire in verifiche dei fatti perché tanto “il fact-checking non funziona,” come scrive appunto il professor Quattrociocchi, persona che conosco dai tempi in cui abbiamo fatto parte dei numerosi consulenti convocati dalla Camera dei Deputati italiana sul problema delle fake news.

In effetti Quattrociocchi presenta dei dati molto rigorosi, contenuti in un articolo scientifico di cui è coautore, intitolato Debunking in a world of tribes, che si basa proprio sulle dinamiche sociali analizzate dettagliatamente su Facebook fra il 2010 e il 2014. Questo articolo e altri indicano che “il fact-checking, lungi dall’essere una soluzione, spesso peggiora le cose” [Corriere] perché crea delle casse di risonanza o echo chamber, per cui ogni gruppo rimane della propria opinione e anzi si polarizza ancora di più: se vengono esposti a un fact-checking, i complottisti non cambiano idea ma anzi tipicamente diventano ancora più complottisti, mentre chi ha una visione più scientifica delle cose è refrattario anche a qualunque minima giusta correzione che tocchi le sue idee.

Ma allora fare il mio lavoro di cacciatore di bufale è una perdita di tempo e anzi fa più male che bene? Devo smettere, per il bene dell’umanità, perché la scienza dice che noi debunker facciamo solo danni?

Dai toni molto vivaci usati dal professor Quattrociocchi si direbbe proprio di sì. Frasi come “nonostante queste evidenze, milioni di dollari sono stati spesi in soluzioni che chiunque con un minimo di onestà intellettuale avrebbe riconosciuto come fallimentari” sono facilmente interpretabili in questo senso. Ma bisogna fare attenzione a cosa intende esattamente il professore con “fact-checking”: lui parla specificamente di situazioni [nel podcast dico “soluzioni” – errore mio, che per ragioni tecniche non posso correggere] in cui il debunker, quello che vorrebbe smentire le falsità presentando i fatti, va a scrivere quei fatti nei gruppi social dedicati alle varie tesi di complotto. In pratica, è come andare in casa dei terrapiattisti a dire loro che hanno tutti torto e che la Terra è una sfera: non ha senso aspettarsi che questo approccio abbia successo e si venga accolti a braccia aperte come portatori di luce e conoscenza.

Anche senza il conforto dei numeri e dei dati raccolti da Quattrociocchi e dai suoi colleghi, è piuttosto ovvio che un fact-checking del genere non può che fallire: tanto varrebbe aspettarsi che andare a un derby, sedersi tra i tifosi della squadra avversaria e tessere le lodi della propria squadra convinca tutti a cambiare squadra del cuore. Ma il fact-checking non consiste soltanto nell’andare dai complottisti; anzi, i debunker evitano accuratamente questo approccio.

Il fact-checking, infatti, non si fa per chi è già parte di uno schieramento o dell’altro. Si fa per chi è ancora indeciso e vuole informarsi, per poi prendere una posizione, e in questo caso non è affatto inutile, perché fornisce le basi fattuali che rendono perlomeno possibile una decisione razionale.

Del resto, lo stesso articolo scientifico del professor Quattrociocchi, e il suo commento sul Corriere della Sera, sono in fin dei conti due esempi di fact-checking: su una piattaforma pubblica presentano i dati di fatto su un tema e li usano per smentire una credenza molto diffusa. Se tutto il fact-checking fosse inutile, se davvero presentare i fatti non servisse a nulla e fosse anzi controproducente, allora sarebbero inutili, o addirittura pericolosi, anche gli articoli del professore.


Resta la questione delle soluzioni al problema sempre più evidente dei danni causati dalla disinformazione e dalla malinformazione circolante sui social e anzi incoraggiata e diffusa anche da alcuni proprietari di questi social, come Elon Musk.

Il professor Quattrociocchi scrive che “L’unico antidoto possibile, e lo abbiamo visto chiaramente, è rendere gli utenti consapevoli di come interagiamo sui social.” Parole assolutamente condivisibili, con un piccolo problema: non spiegano come concretamente arrivare a rendere consapevoli gli utenti di come funzionano realmente i social network.

Sono ormai più di vent’anni che esistono i social network, e finora i tentativi di creare questa consapevolezza si sono tutti arenati. Non sono bastati casi clamorosi come quelli di Cambridge Analytica; non è bastata la coraggiosa denuncia pubblica, nel 2021, da parte di Frances Haugen, data scientist di Facebook, del fatto che indignazione e odio sono i sentimenti che alimentano maggiormente il traffico dei social e quindi i profitti di Meta e di tutti i social network. Come dice anche il professor Quattrociocchi insieme a numerosi altri esperti, “[s]i parla di fake news come se fossero il problema principale, ignorando completamente che è il modello di business delle piattaforme a creare le condizioni per cui la disinformazione prospera.”

La soluzione, insomma, ci sarebbe, ma è troppo radicale per gran parte delle persone: smettere di usare i social network, perlomeno quelli commerciali, dove qualcuno controlla chi è più visibile e chi no e decide cosa vediamo e ha convenienza a soffiare sul fuoco della disinformazione. Le alternative prive di controlli centrali non mancano, come per esempio Mastodon al posto di Threads, X o Bluesky, e Pixelfed al posto di Instagram, ma cambiare social network significa perdere i contatti con i propri amici se non migrano anche loro, e quindi nonostante tutto si finisce per restare dove si è, turandosi il naso. Fino al momento in cui non si sopporta più: il 20 gennaio, per esempio, è la data prevista per #Xodus, l’uscita in massa da X da parte di politici, organizzazioni ambientaliste, giornalisti* e utenti di ogni genere.

* La Federazione Europea dei Giornalisti (European Federation of Journalists, EFJ), la più grande organizzazione di giornalisti in Europa, che rappresenta oltre 295.000 giornalisti, ha annunciato che non pubblicherà più nulla su X dal 20 gennaio 2025: “Come molte testate europee (The Guardian, Dagens Nyheter, La Vanguardia, Ouest-France, Sud-Ouest, ecc.) and e organizzazioni di giornalisti, come l’Associazione dei Giornalisti Tedeschi (DJV), la EFJ ritiene di non poter più partecipare eticamente a un social network che è stato trasformato dal suo proprietario in una macchina di disinformazione e propaganda.”

Funzionerà? Lo vedremo molto presto.

Aggiornamento (2025/01/20)

Il quotidiano francese Le Monde ha annunciato di aver interrotto la condivisione dei propri contenuti su X, dove ha 11,1 milioni di follower.

Niente Panico RSI – Puntata del 2025/02/03

È andata in onda lunedì mattina alle 9 una nuova puntata in diretta di Niente Panico, il programma che conduco insieme a Rosy Nervi sulla Rete Tre della Radiotelevisione Svizzera.

In questa puntata ho raccontato un po’ il mio viaggio da geek a San Francisco insieme alla Dama del Maniero: oltre a visitare alcuni dei consueti luoghi turistici, abbiamo partecipato a una convention di Star Trek alla quale erano presenti molti attori delle serie classiche e di quelle più recenti, siamo andati a visitare la USS Hornet, la portaerei che raccolse gli astronauti di ritorno dal primo atterraggio sulla Luna e abbiamo visto da vicino le auto autonome di Waymo in azione in tutta la città.

Ho anche fatto sentire l’intervista che ho realizzato in Italia con l’attore Tony Amendola (Stargate SG-1 e tante altre serie) durante la recente convention di scienza e fantascienza Sci-Fi Universe a Peschiera del Garda.

La trasmissione è riascoltabile presso www.rsi.ch/rete-tre/programmi/intrattenimento/serotonina oppure nell’embed qui sotto.

Lo streaming in diretta della Rete Tre è presso www.rsi.ch/audio/rete-tre/live; la raccolta completa delle puntate è presso Attivissimo.me/np.

Niente Panico RSI – Puntata del 2025/02/17

È andata in onda lunedì scorso alle 9 una nuova puntata in diretta di Niente Panico, il programma che conduco insieme a Rosy Nervi settimanalmente sulla Rete Tre della Radiotelevisione Svizzera. La trasmissione è riascoltabile presso www.rsi.ch/rete-tre/programmi/intrattenimento/serotonina oppure nell’embed qui sotto.

Lo streaming in diretta della Rete Tre è presso www.rsi.ch/audio/rete-tre/live; la raccolta completa delle puntate è presso Attivissimo.me/np.

Podcast RSI – Emily Pellegrini, l’influencer virtuale che virtuale non era; deepfake per una truffa da 25 milioni di dollari

Questo articolo è importato dal mio blog precedente Il Disinformatico: l’originale (con i commenti dei lettori) è qui.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesGoogle PodcastsSpotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

Benvenuti alla puntata del 16 agosto 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo, e questa settimana vi porto due storie, e due notizie, che sembrano scollegate e appartenenti a due mondi molto distanti, ma hanno in realtà in comune un aspetto molto importante.

La prima storia riguarda una delle più pubblicizzate influencer virtuali, Emily Pellegrini, annunciata dai giornali di mezzo mondo come un trionfo dell’intelligenza artificiale, così attraente e realistica che viene contattata da celebri calciatori che la vogliono incontrare a cena e da ricchi imprenditori che le offrono vacanze di lusso pur di conoscerla, credendo che sia una persona reale, e accumula centinaia di migliaia di follower su Instagram. Ma oggi tutte le immagini che l’avevano resa celebre sui social sono scomparse.

La seconda storia riguarda invece una truffa da 25 milioni di dollari ai danni di una multinazionale, messa a segno tramite una videoconferenza in cui il direttore finanziario sarebbe stato simulato dai criminali, in voce e in video e in tempo reale, usando anche qui l’intelligenza artificiale così bene da ingannare persino i suoi stessi dipendenti.

Ma non è l’intelligenza artificiale l’aspetto che accomuna queste storie. È qualcosa di ben poco artificiale e purtroppo molto umano.

[SIGLA di apertura]

Siamo a fine settembre del 2023. Un’eternità di tempo fa, per i ritmi dello sviluppo frenetico dell’intelligenza artificiale. Su un sito per adulti, Fanvue, e su Instagram iniziano a comparire le foto sexy di Emily Pellegrini [instagram.com/emilypellegrini], una modella di 23 anni che vive a Los Angeles e fa l’influencer. Ma si tratta di una influencer particolare, perché è generata con l’intelligenza artificiale, anche se nelle foto che pubblica sembra una persona in carne e ossa.

Una delle “foto” di Emily Pellegrini. Notate i grattacieli completamente deformati sullo sfondo e l’incoerenza delle linee della piattaforma sulla quale si trova la persona raffigurata, segni tipici di immagini generate maldestramente con software di intelligenza artificiale.

Sei settimane dopo, l’11 novembre, Emily Pellegrini ha già 81.000 follower su Instagram [New York Post]. Ai primi di gennaio ne ha 175.000 [Corriere del Ticino], a metà gennaio sono già 240.000 [NZZ], e ne parlano i media di tutto il mondo [Daily MailripetutamenteFortuneDagospiaRepubblicaSternWelt.deRadio Sampaio], dicendo che il suo aspetto procace e fotorealistico ha tratto in inganno molti uomini “ricchi, potenti e di successo”, dice per esempio il Daily Mail britannico, aggiungendo che su Instagram la contattano “persone veramente famose, come calciatori, miliardari, campioni di arti marziali miste e tennisti” che “credono che sia reale” e “la invitano a Dubai per incontrarla e mangiare nei migliori ristoranti”. Una delle celebrità sedotte da Emily Pellegrini, scrive sempre il Daily Mail, è un imprecisato conoscente di Cristiano Ronaldo; un altro è una star del calcio tedesco di cui non viene fatto il nome.

Andamento della popolarità della stringa di testo “Emily Pellegrini” da settembre 2023 a oggi, secondo Google Trends.

Moltissime testate in tutto il mondo riportano fedelmente questi dettagli e non perdono l’occasione di pubblicare molte foto delle grazie abbondanti dell’influencer virtuale, ma c’è un piccolo problema: tutte queste presunte conquiste di Emily Pellegrini sono riferite da una sola fonte, il suo creatore, che fra l’altro vuole restare anonimo, e sono descritte in modo estremamente vago: nessun nome, ma solo frasi come “uno dei volti famosi, di cui non viene fatto il nome e che l’ha contattata, a quanto pare conosce Cristiano Ronaldo” [“One unnamed famous face who contact [sic] her allegedly knew Cristiano Ronaldo, the creator claimed”]

Che senso ha precisare che questo anonimo fan conosce Cristiano Ronaldo? Non fornisce nessuna informazione reale. Però permette di citare un nome famoso e associarlo a questa influencer per farla brillare di luce riflessa nella mente del lettore, che magari è distratto perché l’occhio gli sta cadendo altrove.

Questo espediente autopromozionale funziona, perché Emily Pellegrini viene citata dai media di mezzo pianeta come l’influencer che “fa innamorare i vip”, come titola Il Mattino, o “ha fatto innamorare calciatori e vip di tutto il mondo”, come scrive Repubblica, per citare giusto qualche esempio italofono. Ma di questo innamoramento collettivo non c’è la minima conferma. Ci sono solo le dichiarazioni straordinariamente vaghe del suo creatore senza nome.

Questo anonimo creatore della influencer virtuale racconta anche di aver “lavorato 14-16 ore al giorno” per riuscire a creare il volto, il corpo e i video di Emily Pellegrini con l’intelligenza artificiale. Ma anche qui qualcosa non quadra, perché a fine gennaio 2024 emerge un dato: alcune delle immagini di Emily Pellegrini, soprattutto quelle più realistiche, sono realistiche non per qualche rara maestria nell’uso dei software di intelligenza artificiale, ma perché sono semplicemente foto e video di donne reali, come per esempio quelle della modella Ella Cervetto (www.instagram.com/ellacervetto/), sfruttate senza il loro consenso [Radio FranceAbc.net.au, con esempi; Fanpage.it], sostituendo digitalmente il loro volto con un volto sintetico e tenendo tutto il resto del corpo intatto. In altre parole, un banale deepfake come tanti, fatto oltretutto a scrocco.

Le pose e le movenze così realistiche di Emily Pellegrini non sono generate dal software: sono prese di peso dai video reali di modelle reali. Una chiara violazione del copyright e uno sfruttamento spudorato del lavoro altrui.


Oggi il profilo Instagram di Emily Pellegrini [www.instagram.com/emilypellegrini] è praticamente vuoto. Tutte le foto sono scomparse. Restano solo 12 post, nei quali un uomo che si fa chiamare “Professor Ep” e dice di essere il creatore della modella virtuale – che in realtà tanto virtuale non era – propone un corso, naturalmente a pagamento, per insegnare agli altri a fare soldi creando modelle virtuali. Nessun accenno al fatto che l’insegnante ha usato i video e la fatica degli altri e ha adoperato  solo in parte l’intelligenza artificiale per guadagnare, dice lui, oltre un milione di dollari.

Lo stato attuale dell’account Instagram di Emily Pellegrini.

Fra l’altro, il corso del sedicente professore, che costava inizialmente mille dollari, ora è svenduto a circa duecento.

La pubblicità del corso promosso sull’account Instagram di Emily Pellegrini.

Lasciando da parte un momento i ragionevoli dubbi sull’etica e la competenza dimostrate fin qui dal Professor Ep, se per caso state pensando di lanciarvi anche voi nel settore immaginando di fare soldi facilmente in questa versione 2024 della febbre per il mining domestico delle criptovalute, beh, pensateci due volte.

I dati indicano infatti che fare soldi esclusivamente generando immagini di modelle virtuali è cosa assai rara. Ci sono alcune superstar del settore che guadagnano discretamente, ma il grosso degli aspiranti creatori e delle aspiranti creatrici fa la fame. Il mercato è saturo di gente che ci sta provando e fallendo.

Grazie ad alcune persone esperte del settore, ho constatato di persona che su piattaforme che promettono grandi guadagni tramite la vendita di immagini generate con l’intelligenza artificiale, come la piattaforma usata dal creatore di Emily Pellegrini, è sufficiente incassare trecento dollari nell’arco di un mese per trovarsi nel discutibile Olimpo del settore, ossia nella fascia del 10% dei creatori che guadagnano di più. Il restante 90%, in altre parole, guadagna di meno.

Gli incassi e il piazzamento di una influencer virtuale su Fanvue.

Molte influencer virtuali che nei mesi scorsi erano state segnalate dai media come le avanguardie emergenti di un nuovo fenomeno oggi non rendono visibile il numero dei like o dei follower, o addirittura questi dati vengono nascosti dalla piattaforma stessa, per non far vedere che non le sta seguendo praticamente nessuno e che i guadagni promessi sono solo un miraggio per molti.

Quelli che guadagnano davvero, invece, sono i fornitori dei servizi e dell’hardware necessario per generare queste immagini sintetiche, proprio come è avvenuto per le criptovalute. Quando si scatena una corsa all’oro, conviene sempre essere venditori di picconi.

Fonti aggiuntive e ulteriori dettagli:


La seconda storia di questo podcast arriva da Hong Kong. Siamo a febbraio del 2024, e scoppia la notizia di una truffa da 25 milioni di dollari ai danni di una multinazionale, effettuata con la tecnica del deepfake, la stessa usata nella storia precedente con altri scopi.

Un operatore finanziario che lavora a Hong Kong si sarebbe fatto sottrarre questa ragguardevolissima cifra perché dei truffatori avrebbero creato una versione sintetica del suo direttore finanziario, che stava a Londra, e l’avrebbero usata per impersonare questo direttore durante una videoconferenza di gruppo, nella quale anche gli altri partecipanti, colleghi dell’operatore, sarebbero stati simulati sempre con l’intelligenza artificiale, perlomeno stando alle dichiarazioni attribuite alla polizia di Hong Kong [Rthk.hk, con video del portavoce della polizia, Baron Chan; The Register].

Dato che tutti i partecipanti alla videochiamata sembravano reali e avevano le sembianze di colleghi, quando l’operatore ha ricevuto l’ordine di effettuare quindici transazioni verso cinque conti bancari locali, per un totale appunto di 25 milioni di dollari, ha eseguito le istruzioni, e i soldi hanno preso il volo.

L’ipotesi che viene fatta dalla polizia è che i truffatori abbiano scaricato dei video dei vari colleghi e li abbiano usati per addestrare un’intelligenza artificiale ad aggiungere ai video una voce sintetica ma credibile. Il malcapitato operatore si sarebbe accorto del raggiro solo quando ha chiamato la sede centrale dell’azienda per un controllo.

La notizia viene accolta con un certo scetticismo da molti addetti alla sicurezza informatica. Già simulare un singolo volto e una singola voce in maniera perfettamente realistica è piuttosto impegnativo, figuriamoci simularne due, tre o più contemporaneamente. La potenza di calcolo necessaria sarebbe formidabile. Non c’è per caso qualche altra spiegazione a quello che è successo?

[The Standard presenta una ricostruzione un po’ diversa degli eventi: solo il direttore finanziario sarebbe stato simulato e gli altri quattro o sei partecipanti sarebbero stati reali. “An employee of a multinational company received a message from the scammer, who claimed to be the “Chief Financial Officer” of the London head office, asking to join an encrypted virtual meeting with four to six staffers. The victim recalled that the “CFO” spent most of the time giving investment instructions, asking him to transfer funds to different accounts, and ending the meeting in a hurry. He found that he was cheated after he made 15 transactions totaling HK$200 million to five local accounts within a week and reported to the police. It was discovered that the speech of the “CFO” was only a virtual video generated by the scammer through deepfake. Police said other employees of the same company were also instructed to attend the meeting.”]

Otto mesi dopo, cioè pochi giorni fa, un esperto di sicurezza, Brandon Kovacs, affascinato da quella truffa milionaria, ha dimostrato alla conferenza di hacking DEF CON che in realtà una videoconferenza nella quale tutti i partecipanti, tranne la vittima, sono in realtà delle simulazioni indistinguibili dagli originaliè fattibile, ed è fattibile con apparecchiature piuttosto modeste e sicuramente alla portata economica di una banda di criminali che spera in un bottino di svariati milioni di dollari.

La parte più impegnativa di quest’impresa è procurarsi delle riprese video delle persone da simulare. Queste registrazioni servono per addestrare un’intelligenza artificiale su misura a generare un deepfake in tempo reale della persona specifica. Ma oggigiorno praticamente chiunque lavori in un’azienda ha ore e ore di riprese video che lo riguardano nel contesto ideale per addestrare un’intelligenza artificiale: le registrazioni delle videoconferenze di lavoro alle quali ha partecipato.

Kovacs ha messo alla prova quest’ipotesi: è possibile creare un clone video di qualcuno usando solo informazioni pubblicamente disponibili e software a sorgente aperto, cioè open source?

La risposta è sì: insieme a una collega, Alethe Denis, di cui aveva le registrazioni pubblicamente disponibili delle sue interviste, podcast e relazioni a conferenze pubbliche, ha addestrato un’intelligenza artificiale e si è procurato una fotocamera digitale reflex professionale, delle luci, una parrucca somigliante ai capelli della collega, un telo verde e del software, e ha usato il deepfake generato in tempo reale come segnale di ingresso del microfono e della telecamera per una sessione di Microsoft Teams, nella quale ha parlato con i figli della collega, spacciandosi per lei in voce e in video in diretta. I figli ci sono cascati completamente, e se un figlio non si accorge che sua mamma non è sua mamma, vuol dire che l’inganno è più che adeguato.

Creare un deepfake del genere, insomma, non è più un’impresa: il sito tecnico The Register nota che un software come DeepFaceLab, che permette di addestrare un modello per creare un deepfake di una persona specifica, è disponibile gratuitamente. Anche il software per l’addestramento della voce esiste in forma open source e gratuita: è il caso per esempio di RVC. E la scheda grafica sufficientemente potente da generare le immagini del volto simulato in tempo reale costa circa 1600 dollari.

In pratica, Kovacs ha creato un kit per deepfake pronto per l’uso [mini-demo su LinkedIn]. Un kit del genere moltiplicato per il numero dei partecipanti a una videoconferenza non è a buon mercato per noi comuni mortali, ma è sicuramente una spesa abbordabile per un gruppo di criminali se la speranza è usarlo per intascare illecitamente 25 milioni di dollari. E quindi l’ipotesi della polizia di Hong Kong è plausibile.

Non ci resta che seguire i consigli di questa stessa forza di polizia per prevenire questo nuovo tipo di attacco:

  • primo, avvisare che esiste, perché molti utenti non immaginano nemmeno che sia possibile;
  • secondo, non pensare che il numero dei partecipanti renda particolarmente difficile questo reato;
  • e terzo, abituare e abituarsi a confermare sempre le identità delle persone che vediamo in video facendo loro delle domande di cui solo loro possono sapere la risposta.

E così la demolizione della realtà fatta dall’intelligenza artificiale prosegue inesorabile in entrambe queste storie: non possiamo più fidarci di nessuna immagine, né fissa né in movimento, ma possiamo fare affidamento su una costante umana che non varia nel tempo: la capacità e la passione universale di trovare il modo di usare qualunque tecnologia per imbrogliare il prossimo.

Fonte aggiuntiva: Lights, camera, AI! Real-time deepfakes coming to DEF CONThe Register

Podcast RSI – Google blocca l’adblocker che blocca gli spot; iPhone, arrivano gli app store alternativi, ma solo in UE

Questo articolo è importato dal mio blog precedente Il Disinformatico: l’originale (con i commenti dei lettori) è qui.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesGoogle PodcastsSpotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.


Vi piacciono gli adblocker? Quelle app che bloccano le pubblicità e rendono così fluida e veloce l’esplorazione dei siti Web, senza continue interruzioni? O state pensando di installarne uno perché avete visto che gli altri navigano beatamente senza spot? Beh, se adoperate o state valutando di installare uno degli adblocker più popolari, uBlock Origin, c’è una novità importante che vi riguarda: Google sta per bloccarlo sul proprio browser Chrome. Ma c’è un modo per risolvere il problema.

Ve lo racconto in questa puntata del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica, e vi racconto anche cosa succede realmente con gli iPhone ora che l’App Store di Apple non è più l’unico store per le app per questi telefoni e quindi aziende come Epic Games, quella di Fortnite, sono finalmente libere di offrire i propri prodotti senza dover pagare il 30% di dazio ad Apple, anche se lo sono solo a certe condizioni complicate. Vediamole insieme. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Google sta per bloccare l’adblocker uBlock Origin

La pubblicità nei siti a volte è talmente invadente, specialmente sugli schermi relativamente piccoli degli smartphone, che diventa impossibile leggere i contenuti perché sono completamente coperti da banner, pop-up e tutte le altre forme di interruzione inventate in questi anni dai pubblicitari. Molti utenti si difendono da quest’invasione di réclame adottando una misura drastica: un adblocker, ossia un’app che si aggiunge al proprio browser sul computer, sul tablet o sul telefono e blocca le pubblicità.

Uno degli adblocker più popolari, con decine di milioni di utenti, è uBlock Origin, un’app gratuita disponibile per tutti i principali browser, come per esempio Edge, Firefox, Chrome, Opera e Safari. È scaricabile presso Ublockorigin.com ed è manutenuto ormai da un decennio dal suo creatore, Raymond Hill, che non solo offre gratuitamente questo software ma rifiuta esplicitamente qualunque donazione o sponsorizzazione. Questa sua fiera indipendenza, rimasta intatta mentre altri adblocker sono scesi a compromessi lasciando passare le “pubblicità amiche”, lo ha fatto diventare estremamente popolare.

Il sito di Ublock Origin.

Ovviamente i pubblicitari, e i siti che si mantengono tramite le pubblicità, non vedono di buon occhio questo successo degli adblocker, e quindi c’è una rincorsa tecnologica continua fra chi crea pubblicità che eludono gli ablocker in modi sempre nuovi e chi crea adblocker che cercano di bloccare anche quei nuovi modi.

Anche Google vive di pubblicità, e quindi in questa rincorsa non è affatto neutrale: se le pubblicità che Google vende non vengono viste dagli utenti, gli incassi calano. E infatti il suo browser Chrome, uno dei più usati al mondo, sta per bloccare l’adblocker uBlock Origin. I trentacinque milioni di utenti che lo adoperano su Chrome, stando perlomeno ai dati presenti sulla sua pagina nel Chrome Web Store [screenshot qui sotto], si troveranno quindi presto orfani, perché è in arrivo un aggiornamento importante della tecnologia di supporto alle estensioni in Chrome, fatto formalmente per aumentarne la sicurezza, l’efficienza e la conformità agli standard, ma questo aggiornamento ha anche un effetto collaterale non trascurabile: renderà uBlock Origin incompatibile con le prossime versioni di Chrome.

Ublock Origin nel Chrome Web Store.

Niente panico: al momento attuale uBlock Origin funziona ancora su Chrome, ma nelle prossime versioni del browser di Google verrà disabilitato automaticamente. Per un certo periodo, gli utenti avranno la possibilità di riattivarlo manualmente, ma poi sparirà anche questa opzione.

uBlock Origin continuerà a funzionare sugli altri browser, per cui un primo rimedio al problema per i suoi milioni di utenti è cambiare browser, passando per esempio a Firefox. Ma questo non è facile per gli utenti poco esperti e rischia di introdurre incompatibilità e disagi, perché la popolarità di Chrome spinge i creatori dei siti a realizzare siti Web che funzionano bene soltanto con Chrome, in una ripetizione distorta della celebre guerra dei browser che aveva visto protagonista Internet Explorer di Microsoft contro Netscape alla fine degli anni Novanta.

Raymond Hill, il creatore di uBlock Origin, non è rimasto con le mani in mano. Vista la tempesta in arrivo, ha già creato e reso disponibile, sempre gratuitamente, un nuovo adblocker che è compatibile con le prossime versioni di Google Chrome. Si chiama uBlock Origin Lite, ed è già disponibile sul Chrome Web Store. Trovate i link per scaricarlo su Disinformatico.info. Per ragioni tecniche non è potente ed efficace come il suo predecessore, per cui Raymond Hill non lo propone come aggiornamento automatico ma lo raccomanda come alternativa.

Ublock Origin Lite nel Chrome Web Store.

Se siete affezionati alla navigazione senza pubblicità grazie a uBlock Origin, insomma, avete due possibilità: cambiare browser oppure passare alla versione Lite di uBlock Origin, che è già stata installata in questo momento da circa trecentomila utenti.

In tutto questo non va dimenticato che molti dei siti e dei servizi più usati di Internet si mantengono grazie ai ricavi pubblicitari che gli adblocker impediscono, per cui se usate un adblocker di qualunque tipo vale la pena di dedicare qualche minuto ad autorizzare le pubblicità dei siti che vi piacciono e che volete sostenere, lasciando bloccati tutti gli altri, anche come misura di difesa contro i siti di fake news nei quali è facile incappare e che si mantengono con la pubblicità, per cui a loro non interessa che crediate o meno a quello che scrivono: l’importante per loro è che vediate le loro inserzioni pubblicitarie. Ed è così che paradossalmente gli adblocker diventano uno strumento contro la disinformazione e i truffatori.

Fonti aggiuntive: PC WorldWindowsCentral.

iPhone, arrivano gli app store alternativi. Ma solo in UE

Da quando è arrivato l’iPhone, una delle sue caratteristiche centrali è stata quella di avere un unico fornitore di app, cioè l’App Store della stessa Apple. Sugli smartphone delle altre marche, con altri sistemi operativi come per esempio Android, l’utente è sempre stato libero di procurarsi e installare app di qualunque provenienza con poche semplici operazioni, mentre Apple ha scelto la via del monopolio, aggirabile solo con procedure decisamente troppo complicate per l’utente medio.

Oggi, dopo sedici anni dal suo debutto nel 2008, l’App Store di Apple non è più l’unica fonte di app disponibile agli utenti degli smartphone di questa marca: debuttano infatti gli app store alternativi per gli iPhone. Ma solo per chi si trova nell’Unione Europea. Una volta tanto, una novità arriva prima in Europa che negli Stati Uniti, ma non scalpitate, le cose non sono così semplici come possono sembrare a prima vista.

La novità è merito delle norme europee sulla concorrenza, specificamente del Digital Markets Act o DMA, e delle azioni legali avviate da aziende come Spotify, Airbnb e in particolare Epic Games, la casa produttrice di Fortnite, aziende che contestavano non solo il regime di sostanziale monopolio ma anche il fatto che Apple, come Google, chiede il 30% dei ricavi delle app: una percentuale ritenuta troppo esosa da molti sviluppatori di app.

A questi costi si aggiungeva il fatto che alcuni tipi di app non erano disponibili nell’App Store di Apple per scelta politica, per esempio su pressioni di governi come quello cinese, indiano o russo, oppure per decisione spesso arbitraria di Apple, come per esempio nel caso degli emulatori di altri sistemi operativi (come il DOS) [The Verge], o nel caso dei browser alternativi (ammessi solo se usano lo stesso motore interno WebKit di Safari [The Verge]), oppure dei contenuti anche solo vagamente relativi alla sessualità, come nella vicenda emblematica dell’app che offriva un adattamento a fumetti dell’Ulisse di Joyce, che era stata respinta per aver osato mostrare dei genitali maschili appena accennati da un tratto di matita.

Apple ha giustificato finora queste restrizioni parlando di esigenze di qualità e di sicurezza, e in effetti i casi di app pericolose giunte nel suo App Store sono limitatissimi rispetto al fiume di malware e di spyware che si incontra facilmente su Google Play per il mondo Android, ma non sempre queste giustificazioni sono state documentate; l’argomentazione generale di Apple è stata che solo Apple era in grado di fornire una user experience buona, sicura e felice. In ogni caso, che ad Apple piaccia o no, l’Unione Europea ha disposto che gli utenti di iPhone e iPad abbiano la facoltà di procurarsi app anche attraverso app store alternativi.

E così oggi un utente Apple che si trovi in Unione Europea può rivolgersi ad app store come AltStoreSetappEpic GamesAptoide e altri, trovandovi app che non esistono nello store di Apple, soprattutto nel settore dei giochi e degli emulatori.

Una cosa inimmaginabile qualche anno fa: Aptoide per iOS.

Ma la procedura non è affatto semplice. Mentre per usare l’App Store di Apple l’utente non deve fare nulla, per usare gli store alternativi deve trovarsi materialmente nel territorio dell’Unione Europea, e quindi per esempio la Svizzera e il Regno Unito sono esclusi; deve impostare il paese o l’area geografica del proprio ID Apple su uno dei paesi o delle aree geografiche dell’Unione Europea, e deve aver installato iOS 17.4 o versioni successive. E una volta fatto tutto questo, deve poi andare al sito dello store alternativo ed eseguire tutta una serie di operazioni prima di poter arrivare finalmente alle app vere e proprie. La cosa è talmente complessa che Epic Games ha addirittura pubblicato su YouTube un video che spiega la procedura.

Lo store della Epic Games.

La faccenda si complica ulteriormente se per caso l’utente esce per qualunque motivo dall’Unione Europea: gli aggiornamenti delle app degli store alternativi saranno ammessi solo per 30 giorni, e ci sono anche altre limitazioni, elencate in un tediosissimo documento pubblicato da Apple che trovate linkato su Disinformatico.info.

[il documento di Apple elenca in dettaglio i paesi e le aree geografiche compatibili: Austria, Belgio, Bulgaria, Croazia, Cipro, Repubblica Ceca, Danimarca, Estonia, Finlandia (incluse Isole Åland), Francia (incluse Guyana francese, Guadalupa, Martinica, Mayotte, Reunion, Saint Martin), Germania, Grecia, Ungheria, Irlanda, Italia, Lettonia, Lituania, Lussemburgo, Malta, Paesi Bassi, Polonia, Portogallo (incluse Azzorre), Madeira, Romania, Slovacchia, Slovenia, Spagna (incluse Isole Canarie), Svezia]

All’atto pratico, è difficile che questa apertura forzata e controvoglia dell’App Store interessi a chi non è particolarmente esperto o appassionato, ma perlomeno stabilisce il principio che a differenza di quello che avviene altrove, nell’Unione Europea le grandi aziende del software non sono sempre in grado di fare il bello e il cattivo tempo.

Fonti aggiuntive: TechCrunchIGNThe VergeTechCrunch