Salta al contenuto principale

intelligenza artificiale

Creatività aumentata: il futuro dell’arte passa dalla sinergia uomo-AI

Le nuove tecnologie AI come Midjourney, Suno e Kling stanno rendendo la creazione artistica accessibile a tutti. L'innovazione trasforma il processo creativo, mantenendo l'elemento umano come guida essenziale.

L'articolo Creatività aumentata: il futuro dell’arte passa dalla sinergia uomo-AI proviene da Agenda Digitale.

IA nella ricerca: una nuova era per la scienza dei materiali

L'intelligenza artificiale sta trasformando la ricerca scientifica, accelerando le scoperte nella scienza dei materiali e nelle scienze naturali grazie a modelli avanzati e database accessibili

L'articolo IA nella ricerca: una nuova era per la scienza dei materiali proviene da Agenda Digitale.

Costruire l’impresa intelligente con AI e data science: strategie per il successo

L'adozione della Generative AI offre opportunità significative, ma richiede strategie chiare e team esperti. L'uso di Knowledge Graphs e AI Agents può ottimizzare operazioni e supportare la crescita sostenibile delle imprese

L'articolo Costruire l’impresa intelligente con AI e data science: strategie per il successo proviene da Agenda Digitale.

Autonomia strategica? Ecco le riforme che l’Ue deve sbloccare

L'Europa affronta una trasformazione digitale mentre deve ridurre la dipendenza dagli USA. Urgono riforme per stimolare investimenti privati, snellire la burocrazia e potenziare l'innovazione tecnologica, specialmente nell'IA e nell'energia, per competere globalmente

L'articolo Autonomia strategica? Ecco le riforme che l’Ue deve sbloccare proviene da Agenda Digitale.

Pirateria, Italia e Usa: due approcci paralleli nella lotta

Agcom estende il sistema Piracy Shield ai contenuti audiovisivi, mentre gli USA propongono il Foreign Anti-Digital Piracy Act. Due approcci paralleli per contrastare la pirateria online: amministrativo in Italia, giudiziario negli Stati Uniti

L'articolo Pirateria, Italia e Usa: due approcci paralleli nella lotta proviene da Agenda Digitale.

IA, cosa frena le aziende italiane

Il mercato italiano dell'IA raggiunge 1,2 miliardi di euro nel 2024, con una crescita del 58%. Nonostante le grandi aziende mostrino interesse, l'Italia resta indietro nell'adozione rispetto alla media Ue, specie nelle PMI. I dati e le tendenze fotografati dall’Osservatorio Artificial Intelligence del Polimi

L'articolo IA, cosa frena le aziende italiane proviene da Agenda Digitale.

Podcast RSI – L’IA ha troppa fame di energia. Come metterla a dieta

Questo articolo è importato dal mio blog precedente Il Disinformatico: l’originale (con i commenti dei lettori) è qui.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesGoogle PodcastsSpotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.


Una singola domanda a ChatGPT consuma grosso modo la stessa energia elettrica che serve per tenere accesa una lampadina comune per venti minuti e consuma dieci volte più energia di una ricerca in Google. La fame di energia dell’intelligenza artificiale online è sconfinata e preoccupante. Ma ci sono soluzioni che permettono di smorzarla.

Questa è la storia del crescente appetito energetico dei servizi online, dai social network alle intelligenze artificiali, del suo impatto ambientale e di come esiste un modo alternativo per offrire gli stessi servizi con molta meno energia e con molto più rispetto per la nostra privacy. Perché ogni foto, ogni documento, ogni testo che immettiamo in ChatGPT, Gemini, Copilot o altri servizi online di intelligenza artificiale viene archiviato, letto, catalogato, analizzato e schedato dalle grandi aziende del settore.

Benvenuti alla puntata del 30 agosto 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Una recente indagine pubblicata da NPR, una rinomata organizzazione indipendente non profit che comprende un migliaio di stazioni radio statunitensi ed è stata fondata dal Congresso degli Stati Uniti, fa il punto della situazione sulla nuova fame di energia dovuta al boom delle intelligenze artificiali.

Quando usiamo un servizio online di intelligenza artificiale, come ChatGPT, Copilot o Gemini, per citare i più diffusi, i complessi calcoli necessari per elaborare e fornirci la risposta non avvengono sul nostro computer, tablet o telefonino, per cui non ci accorgiamo di quanta energia viene consumata per restituirci quella risposta. Il nostro dispositivo non fa altro che prendere la nostra richiesta, inoltrarla via Internet a questi servizi, e ricevere il risultato, facendocelo vedere o ascoltare.

Ma dietro le quinte, le intelligenze artificiali online devono disporre di grandi data center, ossia strutture nelle quali vengono radunati computer appositi, dotati di processori dedicati all’intelligenza artificiale, che hanno dei consumi energetici prodigiosi. Secondo una stima riportata da NPR, una singola richiesta a ChatGPT usa all’incirca la stessa quantità di energia elettrica necessaria per tenere accesa una normale lampadina per una ventina di minuti. Immaginate milioni di persone che interrogano ChatGPT tutto il giorno, e pensate a venti minuti di lampadina accesa per ogni domanda che fanno a questa intelligenza artificiale.

Secondo un’analisi pubblicata dalla banca d’affari Goldman Sachs a maggio 2024, una richiesta fatta a ChatGPT consuma 2,9 wattora di energia elettrica, quasi dieci volte di più di una normale richiesta di ricerca fatta a Google [0,3 wattora] senza interpellare i suoi servizi di intelligenza artificiale. Questa analisi stima che il fabbisogno energetico mondiale dei data center che alimentano la rivoluzione dell’intelligenza artificiale salirà del 160% entro il 2030; serviranno circa 200 terawattora ogni anno solo per i consumi aggiuntivi dovuti all’intelligenza artificiale.

Per fare un paragone, il consumo annuo svizzero complessivo di energia elettrica è stato di 56 terawattora [Admin.ch]. In parole povere: solo per gestire l’intelligenza artificiale servirà un’energia pari a quasi quattro volte quella consumata da tutta la Confederazione.

Questi data center attualmente sono responsabili di circa il 2% di tutti i consumi di energia elettrica, ma entro la fine del decennio probabilmente consumeranno dal 3 al 4%, raddoppiando le loro emissioni di CO2. Goldman Sachs segnala che negli Stati Uniti saranno necessari investimenti per circa 50 miliardi di dollari per aggiungere capacità di produzione di energia per far fronte all’appetito energetico dei data center.

In Europa, sempre secondo l’analisi di Goldman Sachs, la crescente elettrificazione delle attività e l’espansione dei data center potrebbero far crescere il fabbisogno energetico del 40% o più entro il 2033. Entro il 2030, si prevede che la fame di energia di questi data center sarà pari all’intero consumo annuale di Portogallo, Grecia e Paesi Bassi messi insieme. Per stare al passo, la rete elettrica europea avrà bisogno di investimenti per circa 1,6 miliardi di euro nel corso dei prossimi anni.

Queste sono le stime e le previsioni degli esperti, ma ci sono già dei dati molto concreti su cui ragionare. Google e Microsoft hanno pubblicato due confessioni energetiche discrete, poco pubblicizzate, ma molto importanti.


Ai primi di luglio 2024, Google ha messo online il suo nuovo rapporto sulla sostenibilità delle proprie attività. A pagina 31 di questo rapporto si legge un dato molto significativo: l’anno scorso le sue emissioni di gas serra sono aumentate del 48% rispetto al 2019 principalmente a causa degli aumenti dei consumi di energia dei data center e delle emissioni della catena di approvvigionamento”, scrive il rapporto, aggiungendo che “man mano che integriamo ulteriormente l’IA nei nostri prodotti, ridurre le emissioni potrebbe essere impegnativo a causa dei crescenti fabbisogni energetici dovuti alla maggiore intensità dei calcoli legati all’IA” [“In 2023, our total GHG emissions were 14.3 million tCO2e, representing a 13% year-over-year increase and a 48% increase compared to our 2019 target base year. […] As we further integrate AI into our products, reducing emissions may be challenging due to increasing energy demands from the greater intensity of AI compute, and the emissions associated with the expected increases in our technical infrastructure investment.”].

Fin dal 2007, Google aveva dichiarato ogni anno che stava mantenendo una cosiddetta carbon neutralityoperativa, ossia stava compensando le proprie emissioni climalteranti in modo da avere un impatto climatico sostanzialmente nullo. Ma già nella versione 2023 di questo rapporto ha dichiarato invece che non è più così, anche se ambisce a tornare alla neutralità entro il 2030.

Anche Microsoft ammette che l’intelligenza artificiale sta pesando sui suoi sforzi di sostenibilità. Nel suo rapporto apposito, l’azienda scrive che le sue emissioni sono aumentate del 29% rispetto al 2020 a causa della costruzione di nuovi data center, concepiti e ottimizzati specificamente per il carico di lavoro dell’intelligenza artificiale.

E a proposito di costruzione di data center, Bloomberg fa notare che il loro numero è raddoppiato rispetto a nove anni fa: erano 3600 nel 2015, oggi sono oltre 7000, e il loro consumo stimato di energia elettrica equivale a quello di tutta l’Italia.

Distillando questa pioggia di numeri si ottiene un elisir molto amaro: l’attuale passione mondiale per l’uso onnipresente dell’intelligenza artificiale ha un costo energetico e un impatto ambientale poco visibili, ma molto reali, che vanno contro l’esigenza di contenere i consumi per ridurre gli effetti climatici. È facile vedere proteste molto vistose contro i voli in aereo, per esempio, e c’è una tendenza diffusa a rinunciare a volare come scelta di tutela dell’ambiente. Sarebbe ironico se poi chi fa questi gesti passasse la giornata a trastullarsi con ChatGPT perché non si rende conto di quanto consumo energetico ci stia dietro.

Per fare un paragone concreto e facile da ricordare, se quei 2,9 wattora necessari per una singola richiesta a ChatGPT venissero consumati attingendo alla batteria del vostro smartphone, invece che a qualche datacenter dall’altra parte del mondo, il vostro telefonino sarebbe completamente scarico dopo soltanto quattro domande. Se usaste delle normali batterie stilo, ne dovreste buttare via una ogni due domande.


Ognuno di noi può fare la propria parte per contenere questo appetito energetico smisurato, semplicemente scegliendo di non usare servizi basati sull’intelligenza artificiale remota se non è strettamente indispensabile. Ma esiste anche un altro modo per usare l’intelligenza artificiale, che consuma molto, molto meno: si chiama tiny AI, ossia microintelligenza artificiale locale [locally hosted tiny AI].

Si tratta di software di IA che si installano e funzionano su computer molto meno potenti ed energivori di quelli usati dalle grandi aziende informatiche, o addirittura si installano sugli smartphone, e lavorano senza prosciugarne la batteria dopo quattro domande. Hanno nomi come Koala, Alpaca, Llama, H2O-Danube, e sono in grado di generare testi o tradurli, di rispondere a domande su vari temi, di automatizzare la scrittura di un documento, di trascrivere una registrazione o di riconoscere una persona, consumando molta meno energia delle intelligenze artificiali online.

Per esempio, una microintelligenza artificiale può essere installata a bordo di una telecamera di sorveglianza, su un componente elettronico che costa meno di un dollaro e ha un consumo energetico trascurabile: meno dell’energia necessaria per trasmettere la sua immagine a un datacenter remoto tramite la rete telefonica cellulare.

Nella tiny AI, l’elaborazione avviene localmente, sul dispositivo dell’utente, e quindi non ci sono problemi di privacy: i dati restano dove sono e non vengono affidati a nessuno. Bisogna però cambiare modo di pensare e di operare: per tornare all’esempio della telecamera, invece di inviare a qualche datacenter le immagini grezze ricevute dalla telecamera e farle elaborare per poi ricevere il risultato, la tiny AI le elabora sul posto, direttamente a bordo della telecamera, e non le manda a nessuno: se rileva qualcosa di interessante, trasmette al suo proprietario semplicemente l’avviso, non l’intera immagine, con un ulteriore risparmio energetico.

Non si tratta di alternative teoriche: queste microintelligenze sono già in uso, per esempio, negli occhiali smart dotati di riconoscimento vocale e riconoscimento delle immagini. Siccome devono funzionare sempre, anche quando non c’è connessione a Internet, e dispongono di spazi limitatissimi per le batterie, questi oggetti devono per forza di cose ricorrere a un’intelligenza ultracompatta e locale.

Ma allora perché le grandi aziende non usano questa soluzione dappertutto, invece di costruire immensi datacenter? Per due motivi principali. Il primo è tecnico: queste microintelligenze sono brave a fare una sola cosa ciascuna, mentre servizi come Google Gemini o ChatGPT sono in grado di rispondere a richieste di molti tipi differenti e più complesse, che hanno bisogno di attingere a immense quantità di dati. Ma le richieste tipiche fatte dagli utenti a un’intelligenza artificiale sono in gran parte semplici, e potrebbero benissimo essere gestite da una tiny AI. Troppo spesso, insomma, si impugna un martello per schiacciare una zanzara.

Il secondo motivo è poco tecnico e molto commerciale. Se gli utenti si attrezzano con una microintelligenza propria, che oltretutto spesso è gratuita da scaricare e installare, crolla tutto il modello di business attuale, basato sull’idea di convincerci che pagare un abbonamento mensile per avere servizi basati sull’intelligenza artificiale remota sia l’unico modello commerciale possibile.

La scelta, insomma, sta a noi: o diventare semplici cliccatori di app chiavi in mano, che consumano quantità esagerate di energia e creano una dipendenza molto redditizia per le aziende, oppure rimboccarsi un pochino le maniche informatiche e scoprire come attrezzarsi con un’intelligenza artificiale locale, personale, che fa quello che vogliamo noi e non va a raccontare a nessuno i nostri fatti personali. E come bonus non trascurabile, riduce anche il nostro impatto globale su questo fragile pianeta.

Fonti aggiuntive

Ultra-Efficient On-Device Object Detection on AI-Integrated Smart Glasses with TinyissimoYOLO, Arxiv.org, 2023

Tiny VLMs bring AI text plus image vision to the edge, TeachHQ.com, 2024

Tiny AI is the Future of AI, AIBusiness, 2024

The Surprising Rise of “Tiny AI”, Medium, 2024

I test AI chatbots for a living and these are the best ChatGPT alternatives, Tom’s Guide, 2024

Ci vediamo a Rovereto domattina per parlare di IA?

Domani (25 ottobre) alle 8.30 sarò al Teatro Zandonai, a Rovereto, nell’ambito del Festival Informatici Senza Frontiere, per un incontro pubblico sul tema Intelligenza artificiale: falsi timori, rischi e benefici reali. Tutti gli eventi del Festival sono in presenza e gratuiti; per assicurarvi un posto, iscrivetevi agli appuntamenti sul sito del Festival.

A domani!

2024/10/25. Non segnalo più le Avventurette in auto elettrica semplicemente perché ormai la Dama e io siamo talmente abituati che non pianifichiamo neanche più i viaggi: non sono più avventurette! Siamo partiti da casa con il 100% di carica, fatta comodamente a casa con l’energia solare del tetto fotovoltaico, abbiamo percorso 292 km senza dover fare tappe di ricarica, e siamo arrivati all’albergo a Rovereto con un buon 10% di carica residua, dopo aver consumato 50,8 kWh. All’albergo c’è la colonnina (l’abbiamo scelto apposta) e così abbiamo messo sotto carica l’auto (una Tesla Model S 70 di seconda mano) per ripartire oggi pomeriggio e tornare direttamente al Maniero Digitale. Zero problemi.

Computer grafica nel 1968. Con la demo che ispirò HAL per “2001: Odissea nello spazio”

Link al video su YouTube

Sembrano immagini da un universo parallelo, ma le immagini mostrate in questo filmato del 1968 (YouTube) sono la realtà di quello che già si faceva nei laboratori della Bell alla fine degli anni Sessanta: grafica digitale, composizione di musica al computer, progettazione virtuale di circuiti elettronici usando uno stilo (o penna ottica come si chiamava all’epoca), simulazioni 3D di orbite spaziali, sintesi vocale, concezione di film generati al computer, e altro ancora. I macchinari di allora erano enormi, lentissimi e costosissimi: oggi abbiamo a disposizione le stesse risorse sui nostri telefonini.

A 10:00 una chicca per gli appassionati di fantascienza: la scena che quasi sicuramente ispirò Stanley Kubrick per la famosa sequenza di 2001: Odissea nello spazio nella quale il computer intelligente HAL (spoiler!) subisce una lobotomia e gli viene chiesto di cantare una canzoncina per segnalare il progressivo degrado delle sue capacità intellettive. La canzoncina, in questo documentario e nel film, è Daisy Bell; nell’edizione italiana venne sostituita con la filastrocca Giro Girotondo. Si perse così il riferimento a queste sperimentazioni della Bell e anche una battuta sottile nel testo della canzoncina, quando HAL dice “I’m half crazy” (sono mezzo matto).

Il documentario si intitola The Incredible Machine ed è datato 1968. I sottotitoli automatici di YouTube sono pieni di errori; non fidatevi di quello che scrivono.

Qui trovate il programma in Perl per far cantare Daisy Bell alla sintesi vocale del Mac.

Secondo la didascalia del video su YouTube, si tratta del sistema informatico Graphic 1 dei Bell Labs, composto da un PDP-5 della Digital Equipment Corporation accoppiato a periferiche come una penna ottica Type 370, una tastiera da telescrivente Teletype Model 33 della Teletype Corporation, e un display incrementale di precisione DEC Type 340 coadiuvato da una memoria buffer RVQ della Ampex capace di immagazzinare 4096 parole (words). La risoluzione sul monitor era 1024×1024 (una foto su Instagram di oggi, per capirci). Ripeto, siamo nel 1968 e questi avevano già monitor con queste caratteristiche. L’output grafico veniva passato a un sistema IBM 7094 da 200 kflop/secondo, collegato a un registratore su microfilm SC 4020 della Stromberg Carlson che, sempre stando alla didascalia, “ci metteva ore a leggere e registrare i dati”. Ma le avvisaglie di tutto quello che conosciamo oggi c’erano già.

Fonte aggiuntiva: Hackaday.

Il 22 novembre a Edilespo (Lugano) parleremo di IA e robotica nell’edilizia

Venerdì 22 novembre alle 17.30, presso il Centro Esposizioni Lugano, sarò moderatore di una tavola rotonda intitolata Le nuove tecnologie digitali applicate alla progettazione/costruzione: la nuova era dell’intelligenza artificiale e la robotica nell’edilizia, nell’ambito del Salone dell’Edilizia Edilespo.

Per un’ora e un quarto avrò il piacere di moderare esperti d’eccezione e di parlare anche di Robodog, un cane-robot guida per ciechi. Questi sono i partecipanti alla tavola rotonda:

  • Professor Andrea Emilio Rizzoli, direttore dell’Istituto Dalle Molle di studi sull’intelligenza artificiale USI-SUPSI
  • Architetto Loris Dellea, direttore della CAT (Conferenza delle Associazioni Tecniche del Cantone Ticino)
  • Davide Plozza, ricercatore del politecnico di Zurigo e sviluppatore di Robodog
  • Alessandro Marrarosa, rappresentante di Digitalswitzerland
  • Christian Righinetti, esperto UAS (Unmanned Aircraft Systems) di DroneAir

A seguire ci sarà un aperitivo offerto da Securiton SA – Taverne e CAT (Conferenza delle Associazioni Tecniche del Cantone Ticino).