Aldo Pisano è un giovane studioso calabrese, originario della pre-Sila cosentina, nel campo della filosofia morale, con un forte focus sull’etica dell’Intelligenza Artificiale e sulla didattica della filosofia. Collabora con la cattedra di Bioetica ed Etica del digitale e Antropologia filosofica presso l’Università della Calabria, sotto la supervisione della professoressa Ines Crispini, ed è attualmente dottorando in Learning Sciences and Digital Technologies per il settore di ricerca di Filosofia morale. Si è laureato in Scienze filosofiche nel 2018 all’UNICAL, svolgendo la tesi in etica e antropologia della tecnica in collaborazione con Carlo Rovelli presso l’Università di Marsiglia. È stato visiting researcher presso la Cattedra UNESCO RELIA dell’Università di Nantes e alla City University of New York. È socio della Società Italiana per l’Etica dell’IA, della Società Filosofica Italiana e della Società Italiana di Filosofia Morale; dal 2021 fa parte del Direttivo nazionale “Inventio” (Filò – Università di Bologna) e dal 2024 del comitato esecutivo SIpEIA. Collabora come redattore per MagIA (Università di Torino) e per Ritiri Filosofici. I suoi principali ambiti di ricerca riguardano l’etica dell’Intelligenza Artificiale, l’etica narrativa e la didattica della filosofia.

Ecco l’intervista che abbiamo realizzato, in cui racconta il suo percorso e le prospettive future dell’etica dell’IA in ambito educativo.

Il tuo percorso unisce filosofia, tecnologia ed educazione: quando e perché hai capito che l’etica dell’Intelligenza Artificiale sarebbe diventata il tuo campo di ricerca principale?

«Nel 2018. In quel periodo mi occupavo di neuroetica, in continuità con interessi che si collocavano tra etica, antropologia della tecnica e filosofia della scienza. Grazie alla guida della professoressa Ines Crispini ho avviato un percorso più strutturato su questi temi, che già allora erano oggetto di riflessione scientifica e non ancora una “moda”, come è avvenuto dal 2022 con l’avvento di ChatGPT e dell’IA di massa. L’esperienza nelle scuole mi ha permesso di cogliere mutamenti significativi nelle nuove generazioni: l’uso pervasivo dello smartphone, la scarsa consapevolezza degli algoritmi di raccomandazione, i modelli di IA basati sul deep learning e l’impiego crescente di sistemi di IA generativa. Ho compreso come questi elementi stessero modificando non solo il modo di intendere l’intelligenza e i processi cognitivi, ma anche le relazioni sociali. L’IA si inserisce nella lunga traiettoria dello sviluppo tecnologico; il punto è comprendere i nuovi rischi che introduce e come governarli. I principali sono quattro: pervasività, autonomia (intesa come possibile compromissione di quella umana), invisibilità e adattività. Da qui nasce l’urgenza etica di cambiare la rappresentazione dell’IA, sottraendola a narrazioni catastrofiche o tecnofobiche».

Hai svolto esperienze di ricerca tra Europa e Stati Uniti: quali differenze hai riscontrato nel modo di affrontare l’etica dell’IA in ambito educativo?

«In Europa sono già attivi diversi progetti strutturati, mentre negli Stati Uniti, pur esistendo una sensibilità sul tema, il percorso è ancora in fase di costruzione. In entrambe le realtà emerge con forza la questione del rischio, ma l’Europa mostra una maggiore attenzione alla riflessione etica come guida allo sviluppo tecnologico. Un risultato interessante della ricerca è il modello teorico chiamato Large Ethics Model (LEM), in analogia con i Large Language Models. L’idea è che il bisogno formativo sull’etica dell’IA sia trasversale: non riguarda solo le giovani generazioni, ma tutti coloro che interagiscono con sistemi di IA in contesti diversi, dall’educazione alla sanità, dalla comunicazione alle aziende. Non si tratta di un principialismo astratto, ma della costruzione di percorsi formativi diffusi, dalle scuole alle organizzazioni. Il metodo del dialogo filosofico – che trasforma la classe in una comunità di ricerca – si è dimostrato applicabile in sistemi educativi differenti, da quello italiano a quello europeo e statunitense».

Il progetto pilota “AI & Ethics Literacy” sarà pubblicato su Springer Nature: quali risultati sono emersi nel contesto italiano?

«I risultati sono molto positivi, soprattutto nelle classi terze degli istituti tecnici e nelle prime dei licei. Il progetto ha coinvolto circa 200 studentesse e studenti, con questionari in entrata e in uscita per misurare la consapevolezza sull’etica dell’IA, attraverso un percorso di otto ore per classe. L’idea è integrare questi moduli nell’educazione civica, dove già esiste un asse sulle competenze digitali. Tuttavia, non si tratta solo di AI literacy in senso tecnico, ma di un approccio critico che affronta temi come il pre-bunking e il debunking delle fake news, i controlli laterali, la tutela dell’autonomia nel processo decisionale e l’analisi critica dei contenuti prodotti dall’IA generativa. Il metodo centrale è la Philosophical Enquiry, che evita contenuti prefabbricati e costruisce il sapere attraverso il dialogo, favorendo l’emersione dei bias e lo sviluppo delle capacità argomentative. Il prossimo passo sarà la formazione dei docenti, con la realizzazione di un manuale open access».

In che modo la collaborazione con la Società Italiana per l’Etica dell’IA ha inciso sulla tua formazione e sulla tua attività di ricerca?

«È stata fondamentale. Mi ha permesso di entrare in contatto con studiose e studiosi di alto profilo, sia su temi tecnici che etico-filosofici. SIpEIA nasce sul presupposto imprescindibile dell’interdisciplinarità, con figure come la presidente Tiziana Catarci, il professor Giovanni Sartor e la professoressa Ines Crispini, tra gli altri. La missione di SIpEIA è costruire una rappresentazione adeguata dell’IA, promuovendo formazione e informazione di qualità, evitando derive catastrofiste e concentrandosi su problemi spesso invisibili: costi economici e ambientali, micro-lavoro e sfruttamento degli utenti, riduzione del pluralismo e bias dei modelli di IA».

A febbraio a Roma si terrà un convegno internazionale con keynote speaker di primo piano: che valore ha questo appuntamento per il dibattito globale sull’IA etica?

«È fondamentale costruire una narrazione realistica sull’IA, focalizzata sui problemi concreti e attuali. Tra gli speaker ci saranno Maria Rosaria Taddeo (Oxford), sul tema dell’uso dell’IA in ambito bellico; Sanmay Das (Virginia Tech, USA), sull’impiego dell’IA nella distribuzione di risorse sociali scarse; Daniel Innerarity sui temi di IA e democrazia; Francesca Rossi (IBM) e monsignor Vincenzo Paglia. L’obiettivo è raccogliere più prospettive, con particolare attenzione all’etica applicata».

Guardando al futuro, quale ruolo può e deve avere la filosofia nel guidare lo sviluppo e l’uso dell’Intelligenza Artificiale nelle scuole e nella società?

«La filosofia aiuta a osservare correttamente l’IA, senza lasciarsi guidare da narrazioni fuorvianti che spostano la responsabilità dall’essere umano alla macchina. Sto lavorando sul concetto di “vulnerabilità epistemica” dell’opinione pubblica: comprendere l’IA richiede cambiarne la rappresentazione, per coglierne i veri problemi senza negarne le grandi potenzialità. Costruire una conoscenza solida dell’IA è un primo passo etico fondamentale. Accanto a questo, si possono definire linee guida e buone pratiche, per garantire una convivenza con i sistemi di IA basata sulla salvaguardia dell’autonomia umana».