di Ennio Bianco.

E’ da alcuni mesi che non scrivo più di arte realizzata con gli strumenti dell’intelligenza artificiale e ciò per diverse ragioni. La principale è che il panorama delle ricerche continua a mutare, quasi che ci si trovi nell’occhio di un ciclone tecnologico, caratterizzato da un punto di fuga che conduce ad un’altra dimensione.
Le ricerche si stanno orientando verso un cambiamento di paradigma segnato dal passaggio dall’Apprendimento per Imitazione 1 (Imitation Learning) all’Apprendimento per Esplorazione 2 (Exploration Learning), nel quale un ruolo fondamentale viene svolto dall’Apprendimento per Rinforzo 3 (Reiforcement Learning o RL) e da quelli che vengono chiamati “Agenti Attivi”.
L’evoluzione dall’apprendimento per imitazione a quello per esplorazione rappresenta una svolta epocale nell’IA, con impatti profondi su tecnologia, società ed economia.
La transizione a un paradigma basato sulla integrazione degli LLM, per la comprensione del linguaggio, e del’Apprendimento per rinforzo, per l’esplorazione creativa, richiede risorse e competenze molto sofisticate, ma una volta messo a punto l’AI si trasformerà da strumento passivo, che risponde ai prompt, ad “Agente Attivo”, che impara, sperimenta e innova autonomamente. Questo porterà progressi radicali, ma giocoforza richiederà anche framework di controllo e governance completamente nuovi per evitare un impatto rischioso per la società.
Gli artisti hanno finora hanno utilizzato strumenti text-to-image (DALL·E, MidJourney) o text-to-video come “collaboratori passivi”, nel senso che interpretano prompt umani senza alcuna autonomia. Ora, cosa potrebbe succedere con l’arrivo di Agenti Attivi? La creatività e l’arte saranno ancora delle preziose qualità degli umani o gli Agenti Attivi svilupperanno un proprio dominio creativo? Genereranno arte senza input umani, esplorando stili e concetti in modo autonomo? Evolveranno estetiche proprie, combinando influenze in modi del tutto inediti? Creeranno opere dinamiche che si adatteranno allo spettatore?
In altre parole siamo giunti ad un punto di svolta, ed una cosa è certa: oggi l’intelligenza artificiale non è più quella del 2022 e tanto meno è quella del 2016!



A fare il punto su cosa sia e cosa sia stata fino ad ora l’AI, permettendoci così di comprendere meglio il cambio di paradigma che ci aspetta, è l’esposizione “Le Monde selon l’IA” (11 aprile al 21 settembre 2025) in uno dei più iconici spazi espositivi del mondo, il Jeu de Paume a Parigi.
Questo grande evento espositivo, progettato da Antonio Somaini con i curatori associati: Ada Ackerman, Alexandre Gefen, Pia Viewing, riflette sulla distinzione fondamentale tra “IA analitica”, che include la visione artificiale e i sistemi di riconoscimento facciale, e “IA generativa”, che utilizza i prompt per generare immagini, video o suoni.

Una straordinaria mostra collettiva che esplora in modo approfondito il rapporto tra intelligenza artificiale e creazione artistica, abbracciando una varietà di media quali fotografia, cinema, installazioni video, scultura, letteratura e musica, coinvolgendo alcuni importanti artisti di fama internazionale come Trevor Paglen, Hito Steyerl, Kate Crawford e Christian Marclay, Joan Fontcuberta, Holly Herndon e Mat Dryhurst, e altri.
Questa mostra si concentra in particolare sul modo in cui i modelli di intelligenza artificiale trasformano la nostra esperienza riguardo alle immagini, siano esse fisse o in movimento, e sul ruolo che svolgono nella cultura in generale.

La ricercatrice Kate Crawford, una studiosa di intelligenza artificiale di fama internazionale, e il designer Vladan Joler, un artista e ricercatore specializzato nella mappatura dei sistemi complessi, hanno creato un linguaggio visivo e concettuale capace di decostruire le narrazioni dominanti sulla tecnologia. La loro collaborazione nasce dalla consapevolezza che l’IA ei sistemi di dati non sono entità neutre, ma strumenti che riflettono e amplificano le disuguaglianze esistenti. Hanno presentato due opere ormai famosissime. La prima opera è “Anatomy of an AI System” (2018), e riguarda il sistema di intelligenza artificiale a controllo vocale di Amazon chiamato “Alexa”. La seconda “Calcolo degli imperi: una genealogia del potere e della tecnologia, 1500-2025” (2023). Questa straordinaria opera, pensate che misura ventiquattro metri per tre, è già stata presentata in una mostra alla Fondazione Prada di Milano nel novembre 2023, ed ad una mostra collettiva al KW Institute for Contemporary Art di Berlino. Con quest’opera, il duo ha ricevuto il gran premio S+T+ARS al Festival Art Electronica di Linz. La potete vedere al sito calculatingempires.net .


Trevor Paglen, si distingue per la sua capacità di rendere visibile l’invisibile, portando alla luce le reti di sorveglianza e i sistemi di controllo che permeano la nostra società. La sua formazione ibrida, che spazia dalla geografia alla fotografia, gli fornisce gli strumenti per indagare le complesse interazioni tra tecnologia, potere e paesaggio.
Nella installazione “Behold These Glorious Times!” (2017) Trevor Paglen riunisce centinaia di migliaia di immagini e le mostra sullo schermo con una rapidità vertiginosa e ipnotica nel corso di 12 minuti. Le immagini provengono da due fonti. Le immagini fotografiche sono parti di librerie di formazione utilizzate per insegnare alle reti di intelligenza artificiale come riconoscere oggetti,
volti, gesti, relazioni, emozioni e molto altro. Sono immagini progettate per insegnare alle macchine “come vedere”. Il secondo tipo di immagini in questa installazione video mostra invece cosa sta effettivamente “vedendo” una Deep Neural Network (un’architettura di intelligenza artificiale) quando ingerisce queste immagini.

Per “imparare” a riconoscere le immagini, l’IA le scompone in centinaia di componenti e cerca di rimetterle insieme. Nelle griglie e nelle immagini in bianco e nero di questo video, vediamo i vari modi in cui l’IA scompone le immagini per cercare di dar loro un senso. In generale, in questa installazione, vediamo le immagini utilizzate per insegnare all’IA e vediamo cosa vede l’IA quando le guarda e cerca di dar loro un senso. La musica per questo pezzo, composta da Holly Herndon, è stata realizzata in parte utilizzando reti neurali progettate per sintetizzare voci e strumenti e da librerie di addestramento utilizzate nel riconoscimento vocale e in altre applicazioni di apprendimento automatico uditivo.
Trevor Paglen esplora il riconoscimento facciale attraverso le sue opere in tre occasioni. Nell’installazione interattiva Faces of ImageNet, una telecamera nascosta riprende l’osservatore, il cui volto viene analizzato ed etichettato utilizzando termini associati a cluster di immagini di ImageNet, un set di dati fondamentale per l’affermazione dell’intelligenza artificiale negli anni 2010.

Infine, con ” Fanon” e ” De Beauvoir” (Even the Dead Are Not Safe), Eigenface (Colorized) (2019) Trevor Paglen utilizza la tecnica di riconoscimento facciale “Eigenface”, che genera una impronta digitale facciale a partire dalle caratteristiche craniofacciali di un volto. Applicando questo metodo ai ritratti di Frantz Fanon e Simone De Beauvoir, dimostra come questi sistemi riescano a identificare anche persone decedute, suggerendo che la visione computerizzata altera il nostro rapporto con le immagini del passato.

Christian Marclay attribuisce grande importanza alla musica e al suono, che riorganizza costantemente in modi nuovi per offrire nuove forme di visualizzazione. Nel 2017 ha avviato una collaborazione con l’azienda americana Snap Inc., creatrice dell’applicazione Snapchat, sulla quale ogni giorno vengono pubblicati più di 3,5 miliardi di messaggi fotografici e video (snap). Da sempre interessato a ricomporre materiali audiovisivi trovati, Marclay, fino ad allora estraneo ai social network, vide in questa considerevole massa di dati un materiale promettente, grazie alla dimensione effimera degli snap, che non superano i dieci secondi e scompaiono dopo essere stati visualizzati. In particolare, ha creato l’installazione interattiva The Organ, una tastiera elettronica collegata a uno schermo su cui il pubblico è invitato a suonare. Ogni tasto attiva la proiezione di una striscia verticale composta da più snap che condividono la stessa frequenza sonora, che l’artista ha selezionato in anticipo su Snapchat tramite un algoritmo di riconoscimento del suono. Si innesca quindi uno stupefacente gioco di corrispondenze tra suono e immagine.

Gregory Chatonsky è figura chiave nell’arte digitale e post-internet, un pioniere che ha saputo interrogare le implicazioni estetiche, politiche e ontologiche delle tecnologie emergenti. La sua opera si sviluppa attraverso una pluralità di media, dall’installazione interattiva alla scrittura, dalla performance alla creazione di ambienti virtuali, sempre con un occhio critico rivolto alle strutture di potere e alle narrazioni che plasmano la nostra percezione della realtà. Con l’opera La Quatrième Mémoire (2025) esplora le sue autobiografie fittizie. Nel corso della mostra, in una sala a essa dedicata, l’installazione, composta da immagini e testi generati dall’intelligenza artificiale, voci clonate e oggetti stampati in 3D, offre tracce frammentarie e metamorfiche delle sue possibili vite, che si dipanano lungo uno spettro spazio-temporale estremamente vasto, con tutta la dimensione fantastica che ne consegue.

Con l’avvento dei grandi modelli linguistici, la generazione di testi letterari tramite computer ha raggiunto un nuovo livello e ha dato vita a opere dalla costruzione e narrazione elaborate. Alcuni lo usano come un vero e proprio collaboratore letterario, come fa ad esempio la poetessa Sasha Stiles con il suo alter ego meccanico, Technelegy. Quest’ultima suggerisce formulazioni e idee che potrebbero essere sue ma che provengono da altrove. Scrisse Ars Autopoetica, una poesia in quattro strofe che fa riferimento alla famosa Art Poetica di Orazio , che Stiles tradusse poi in Cursive Binary, un alfabeto da lei inventato per un pubblico transumano.

Un capitolo importante della mostra riguarda l’intelligenza artificiale generativa, che esplora la capacità dell’intelligenza artificiale di creare nuovi dati, testi o immagini, a partire da grandi quantità di dati trovati su Internet e utilizzati per la formazione di modelli. In questa sezione vengono evidenziate opere che illustrano le molteplici possibilità offerte, dalla generazione di immagini alla creazione di testi e suoni. Molti artisti affrontano questo tema per colmare lacune nella storia (Egor Kraft, Theopisti Stylianou-Lambert e Alexia Achilleos), per mettere in discussione i pregiudizi dell’intelligenza artificiale (Nora Al-Badri, Nouf Aljowaysir) o per scrivere storie alternative (Grégory Chatonsky, Justine Emard e Gwenola Wagon).
Ennio Bianco
Immagine in evidenza: Erik Bullot – Cinéma_vivant, 2024
Note
- L’Apprendimento per Imitazione, usato nei modelli: GPT di Open AI, Gemini 2 Flash, Claude 3 Sonnet, Grok 2, Llama 3.1, ecc., costringe gli LLM (Large Language Model) a “imitare” i dati di training. Concretamente il modello identifica nei dati che lo hanno alimentato dei campioni (pattern) e li imita. Questo è un ottimo modo per addestrare l’intelligenza artificiale a comportarsi come gli umani ed è in fondo l’opzione migliore quando si dispone di dati che il modello può imitare. Questo però significa che l’Apprendimento per Imitazione si basa sulla memorizzazione massiccia di dati e ciò spiega perché le prestazioni degli LLM siano fortemente correlate alla dimensione della memorizzazione, piuttosto che ad una “vera intelligenza”.
- In realtà più che cercare l’imitazione, pensata come memorizzazione, quello che si dovrebbe cercare è il ragionamento vero e proprio. In altre parole, alcuni compiti richiedono “l’esplorazione”, esattamente come avviene per gli esseri umani. Infatti, nessuno di noi sa “a memoria” come risolvere un qualsiasi problema di matematica; ci si affida all’intuizione e alle conoscenze matematiche che sono state apprese a scuola , in altre parole “esploriamo” finché non troviamo la soluzione. Nell’ambito di questa formazione esplorativa il modello sviluppa tecniche di ragionamento come la riflessione (il modello riflette sui propri “pensieri”), il backtracking (il modello riconosce un errore e si autocorregge).
- Nell’addestramento esplorativo, un ruolo fondamentale viene svolto dall’Apprendimento per rinforzo (Reiforcement Learning o RL). In concreto verranno valutati gli output prodotti dal modello e a ciascuno di questi verrà attribuita una ricompensa tanto più significativa quanto migliore è l’output. Questo consente al modello di apprendere quali sono le azioni che producono buoni risultati e quelle che invece non li producono. In pratica, questo modo di apprendere diventa un gioco di tentativi ed errori (trial-and-error).