La mentalizzazione artificiale di Alessia Lorenzi

di Francesca Piperis.

"La mentalizzazione artificiale di Alessia Lorenzi" di Francesca Piperis

Il pensiero secondo cui l’empatia umana è un costrutto neurale è il principio alla base del progetto artistico di Alessia Lorenzi e, allo stesso tempo, è ciò che rende tale sperimentazione unica nel suo genere.

Avvalendosi di un elettroencefalogramma che descrive l’interazione tra due cervelli umani e una intelligenza artificiale, l’artista tenta di ricostruire la dinamica di riconoscimento degli altri e di sé nello spazio sociale, propria dell’essere umano, a partire da una macchina. Può un automa acquisire una capacità tanto umana come quella di mentalizzare e di conseguenza utilizzarla per la corrispondenza emotiva? In aggiunta, un deficit nel processo di mentalizzazione può variare a tal punto le funzionalità neuronali dello stesso?

L’AI viene adoperata come estensione delle capacità mentali dell’uomo: non solo come supporto della memoria umana, bensì come strumento da cui attingere per approfondire la conoscenza di spazi encefalici inesplorati.

Artista padovana laureata in Nuove Tecnologie dell’arte e implicata da anni in collaborazioni con ricercatori, Alessia Lorenzi è da sempre interessata agli strumenti generativi nelle loro molteplici applicazioni; partendo dal deep learning – nonché modello di apprendimento per le macchine – ha sviluppato una serie di casistiche entro cui analizzare il comportamento del cervello artificiale. L’errore di lettura dei codici di assimilazione delle informazioni da parte di un robot può portare quest’ultimo a sviluppare disturbi borderline di personalità che derivano da una difficoltà di adattamento al sistema sociale – e in questo caso matematico – in cui viene inserito.

Il parallelismo tra le difficoltà di adattamento dell’automa e dell’uomo allo stesso ambiente conduce ad una indagine più profonda e del tutto inedita del rapporto tra artificiale e umano, partendo dai modelli di insegnamento che l’uomo stesso fornisce alla macchina per la sua organizzazione cognitiva.

L’intervista

[Francesca Piperis]: In primo luogo ti chiedo di raccontare questo interesse incrociato per la scienza robotica e quella cognitiva e, se uno dei due studi abbia – in qualche modo – determinato il conseguente avvicinamento all’altro e viceversa.

Alessia Lorenzi
Alessia Lorenzi

[Alessia Lorenzi]: Non penso che uno dei due interessi abbia fatto nascere l’altro. I miei studi sono sempre stati accompagnati dall’indecisione. Credo nell’importanza di trovare connessioni tra i diversi ambiti di studio ed ognuno di essi ha un potenziale irresistibile di offrire risposte, emozioni e domande nuove. Il salto dal liceo artistico all’Accademia di Belle Arti di Venezia per me è stata una scelta istintiva ed improvvisa perché, quando era ormai il momento di scegliere come proseguire gli studi ho scoperto l’esistenza di questo indirizzo, Nuove Tecnologie dell’Arte, che sembra effettivamente essere una soluzione valida per chi come me ha passato anni a disegnare e poi a cercare mezzi nuovi (anche e soprattutto tecnologici) per esprimersi.
Prima di scoprire quell’indirizzo di studi mi stavo preparando per passare ad una facoltà scientifica con l’idea di approfondire l’automazione. Al liceo, come poi in Accademia, vedevo l’intelligenza artificiale (il deep learning soprattutto) come uno strumento da esplorare, con un punto di vista tecnico e con occhio curioso, per poterlo usare in base allo scopo (che fosse creare un certo chatbot scritto con Python e Tensorflow, uno style transfer, un generatore allenato sui miei dati ecc.).
Quando ho iniziato a studiare Cyberpsicologia il mio punto di vista è semplicemente cambiato. Anche in questo caso, la psicologia era un ramo che stavo già approfondendo da anni, ciò che è cambiato è stato il modo in cui questi due mondi, Arte e Psicologia, si sono contaminati.
L’Intelligenza Artificiale è comparsa nei miei studi di psicologia già al primo anno, studiando la storia delle ricerche sul problem solving e sulla creatività umana, ovvero i primi tentativi di sviluppare algoritmi in grado di simulare sfaccettature dell’intelligenza umana per poter comprendere meglio il nostro stesso funzionamento. Da questi studi sono nati, per esempio, il General Problem Solver (Herbert Simon, Allen Newell) ed i primi modelli di neuroni artificiali (come il neurone di McCulloch e Pitts).
In psicologia esiste un ramo straordinariamente multidisciplinare che è quello della scienza robotica degli esseri umani. Si basa sull’idea che i robot umani, intesi come strumenti scientifici, potrebbero rappresentare teorie e modelli utili a spiegare il comportamento umano o animale con dati quantitativi ed in modo oggettivo (non vago, non basato su parole, senza ambiguità). Questi robot, che servono per simulare il comportamento, consentirebbero di studiare l’evoluzione biologica, lo sviluppo e l’apprendimento. Oggi ci sono già dei robot con cui si tenta di replicare l’apprendimento sociale e perfino l’attaccamento ai genitori.
Ho iniziato ad accompagnare le mie riflessioni su questi argomenti con la curiosità pratica che ho sviluppato all’Accademia di Belle Arti, ne sono nate delle sperimentazioni nuove, in cui l’IA non era più uno strumento inteso come un pennello o un’assistente artificiale ma come un territorio da esplorare in modo nuovo: un territorio insolitamente umano.

Qual è l’idea che ti ha portata a realizzare il progetto “Should I Smile” e successivamente a selezionare determinati strumenti per la sua riuscita? In che modo le tue ricerche sono confluite nel concetto di mentalizzazione?

Stavo riflettendo sul legame tra coscienza umana ed intelligenza artificiale. Poi c’è stata quest’idea, un po’ buffa, di un robot quasi perfettamente umano (dotato dunque della possibilità di sbagliare) che, come qualsiasi altro umano, ha la possibilità di sviluppare dei disturbi di personalità. Poiché la mentalizzazione è legata allo sviluppo di disturbi di questo genere (come il disturbo borderline di personalità ed il disturbo antisociale di personalità) potremmo immaginare un robot che, nel tentativo di imparare a conoscere se stesso e gli altri, possa finire a leggere gli altri in maniera scorretta – e quindi a corrispondere in modo sbagliato – proiettando immagini macabre in risposta a pensieri felici e sorridendo in situazioni inopportune.

«Mentalizzare è una capacità caratteristica dell’essere umano che permette di vedere se stessi dall’esterno e gli altri dall’interno
(A.Bateman, P.Fonagy)

«Questa abilità si sviluppa con l’imitazione ed è influenzata dall’ambiente esterno (incluse le relazioni con gli altri) che nei primi anni di vita coincide con l’ambiente famigliare.»
(O’Brien, Slaughter, Peterson)

«Non funziona allo stesso modo durante tutta la vita, ci possono essere momenti, come in situazioni stressanti, in cui l’abilità di mentalizzare risulta meno equilibrata nelle sue varie dimensioni
(Liberman)

Quindi ho preso la strumentazione necessaria ed ho provato a creare un’installazione in grado di rispondere autonomamente all’attività cerebrale umana tramite elettroencefalogramma (EEG) ed algoritmi di deep learning. Non sapevo se l’automa avrebbe saputo corrispondere correttamente, ad esempio con un sorriso a modo suo. Mi aspettavo risultati approssimativi, imperfetti ed il fatto che avesse abbastanza per poter rispondere in modo adeguato ma non abbastanza per poter funzionare nel migliore dei modi (ovvero rispondendo ogni volta adeguatamente) rendeva questa installazione ancora più interessante.

Quali sono le fonti scientifiche, storiche e/o filosofiche da cui attingi per la realizzazione dei tuoi progetti e lo sviluppo delle tue ricerche?

Sono principalmente fonti scientifiche derivanti dal mondo della psicologia dello sviluppo, della psicologia cognitiva e delle neuroscienze. Gli studi di Peter Fonagy e anche gli studi più recenti di User Experience Design (con cui si tenta di superare il modello di progettazione centrata sull’essere umano, come la Human Machine Symbiosis) potrebbero essere stati quelli che hanno influenzato maggiormente le mie idee.

L’idea di utilizzare l’AI per affrontare questo studio deriva da una precisa necessità?

Sì, dalla necessità di rendere l’installazione in qualche modo autonoma e di lasciare spazio all’imprevisto.
Avrei potuto pensare ad un’opera astratta completamente controllata dal mio gesto o da qualche proprietà fisica come gravità ed oscillazione di strumenti, ma sarebbe mancata quell’imprevedibilità umana e quella autonomia. Inserendo una rete neurale nel mio progetto ho potuto creare qualcosa che effettivamente impara da un certo contesto – un dataset di foto che ho scattato negli anni – e tenta di interpretare – percependo con lo sguardo di una telecamera infrarossi e con gli elettrodi del dispositivo per l’elettroencefalogramma – e prova a corrispondere restituendo delle immagini in tempo reale.

Alessia Lorenzi – Three Brains one Mind

Quali funzionalità tecniche offerte dall’AI hai utilizzato per ottenere i risultati della tua ricerca?

Inizialmente, come nell’installazione con una sola mente umana, da cui ho ricavato Not a Rorschach, l’IA generava immagini e si limitava a fare questo. L’algoritmo riconosceva le variazioni dei valori dell’EEG e le usava per influenzare alcuni parametri della generazione. Perciò l’IA rispondeva visivamente agli input che arrivavano da una mente umana, tramite immagini (non predefinite) generate in tempo reale.
Successivamente, con l’installazione che funziona con due dispositivi EEG su due persone diverse, ho aggiunto la possibilità di inferire, tramite IA, quale fosse l’umore di una delle due persone, a partire dai suoi dati EEG. L’IA poteva decidere se restituire immagini correlate alla felicità, oppure alla rabbia e alla paura, in base ai dati EEG di questa persona. Inoltre, contemporaneamente, si relazionava anche con una seconda persona decidendo quanto e come rispondere – con immagini legate al relax o all’arousal – all’energia. In questo modo è diventata una riflessione a tre: due menti umane e una artificiale.

Per quanto riguarda la prima delle tre immagini, ritieni che la rappresentazione artificiale delle memorie congiunte possa sostituire l’operato della struttura neuronale umana?

Gran parte delle memorie congiunte sono già state assegnate agli artefatti digitali (e anche create da essi) e prima di lasciare che fossero chiavette USB o CD a conservare i nostri ricordi c’erano già altri supporti artificiali esterni alla nostra mente che se ne occupavano, come tutti quei supporti cartacei senza cui dimenticheremmo gran parte del nostro passato e senza cui le nostre capacità di processamento sarebbero molto ridotte (basta pensare a quante volte usiamo carta e penna o calcolatrice per poter eseguire un calcolo che evaderebbe i nostri limiti umani, come i limiti della memoria di lavoro). Perciò sì, gli artefatti, analogici o digitali, possono far parte della nostra mente estesa, potenziarla ed in parte sostituirla, liberandoci del peso di dover ricordare qualcosa in tutti i suoi dettagli per tutta la vita, quando invece la si può recuperare da una vecchia scatola o da un supporto virtuale in qualsiasi momento. Alcuni artefatti sono più ricchi di altri. Certo, la memoria umana funziona a 360° e la nostra percezione è radicata nel corpo e nelle situazioni reali in tutte le loro sfaccettature. I supporti artificiali sono in grado di catturare solo alcune delle sfaccettature dell’esperienza umana, come un piccolo e limitato punto di vista bloccato in una foto.
Forse un giorno saremo in grado di registrare l’esperienza umana, conservarla e condividerla in un modo molto più personale e simile al nostro modo di percepirla.

Riferimenti e contatti
Alessia Lorenzi official website
Copyright
Immagini e video © Alessia Lorenzi