Mattia Corsini è un giovane laureato in filosofia all’Università di Torino. Ha scritto un saggio: “Umanesimo digitale. Transumanesimo. Intelligenza Artificiale. Il caso della Google Car”, pubblicato da Echos Edizioni, che tratta di uno dei temi più dibattuti a più livelli sia scientifici sia culturali: l’Intelligenza Artificiale (o AI).
Abbiamo parlato con lui non solo del saggio, ma anche dell’impatto dell’Intelligenza artificiale in ambito filosofico e della sua storia e del suo percorso di studi.
Mattia Corsini ci racconta il saggio “Umanesimo digitale. Transumanesimo. Intelligenza Artificiale. Il caso della Google Car”.
Mattia, tu sei laureato in filosofia all’università di Torino, Ci racconti il tuo percorso e cosa stai studiando in particolare?
Sì, mi sono laureato in filosofia all’Università di Torino, percorso che mi ha riservato grandi soddisfazioni e che ha sempre rappresentato una mia passione. Mi ha permesso, inoltre, di poter svolgere un periodo di mobilità internazionale, con una borsa Erasmus+, presso la Vrije Universiteit di Amsterdam, che ho frequentato per sei mesi. Da questo percorso, ho maturato la mia concezione della filosofia, che non coincide con quelli che studiano il pensiero dei filosofi del passato, ma piuttosto cerca di applicare i suoi strumenti a delle problematiche che esulano dal suo dominio specifico. Per tale ragione, mi sono iscritto al master ibrido di I livello in Filosofia del digitale e intelligenza artificiale, dove ho potuto studiare questo campo attraverso l’occhio di indagine di diverse discipline: ovviamente la filosofia, ma anche la psicologia e le neuroscienze. All’interno di quest’ultimo percorso, infine, ho svolto uno stage curriculare presso il Laboratorio di simulazione del comportamento umano e robotica educativa “Luciano Gallino”, nato all’interno del Progetto d’Eccellenza del Dipartimento di Filosofia e Scienze dell’Educazione dell’Università di Torino.
Hai scritto un saggio: “Umanesimo digitale. Transumanesimo. Intelligenza Artificiale. Il caso della Google Car”. Di cosa tratta? Come è nata l’idea di scrivere un saggio su questo argomento?
Sì, è un saggio che indaga da un punto di vista filosofico, e per lo più etico e morale, il campo delle AI, in evoluzione costante al giorno d’oggi. Nello specifico, penso che questo tipo di rivoluzione tecnologica, come quella industriale e quella darwiniana del passato, porti con sé due sentimenti opposti: da una parte, infatti, ci sono i “tecnoentusiasti”, i quali sostengono l’avvento di queste tecnologie intelligenti e ritengono che tale progresso non debba essere rallentato in alcun modo, ma anzi vada incentivato acriticamente il più possibile, mentre, dall’altra parte ci sono i cosiddetti “tecnofobici”, ovvero coloro che vedono questi nuovi mezzi come una minaccia ad un equilibrio sociale esistente, che, proprio per la sua perfezione, non andrebbe alterato.
Questi due estremi nel saggio vengono messi in luce rispettivamente attraverso i concetti di “transumanesimo” e “umanesimo digitale”: il primo, sulla scia di quanto sostenuto da Nick Bostrom, prevede l’avvento nel futuro di una singolarità tecnologica, dove l’intelligenza artificiale non solo replicherà le funzioni tipiche di quella umana, ma ne amplierà notevolmente le potenzialità, il secondo, invece, si fonda su quanto sostenuto da Nida-Rümelin, che vede l’intelligenza umana, e nel particolare quella pratica, come qualcosa di inattingibile da parte dell’intelligenza artificiale. Tutti questi temi sono inseriti nel celebre esperimento mentale chiamato Trolley Problem, il quale, nel libro, è stato riadattato al campo delle AI: al posto del treno della versione tradizionale, si ha il veicolo a guida autonoma di Google, che dovrà prendere delle scelte di tipo etico.
L’idea è nata grazie al minor programme in Technology, Law, and Ethics che ho potuto seguire alla Vrije Universiteit, che mi ha permesso di interfacciarmi per la prima volta con queste tematiche, che ho trovato fin da subito estremamente interessanti e, dal momento che ritengo tale campo quello dove l’indagine filosofica avrà un ruolo di primo piano in futuro, ho deciso di parlarne anche nel mio lavoro di tesi della triennale, che rappresenta gran parte del libro.
In copertina troviamo un uomo e una macchina su di un binario, che presenta una biforcazione: passare davanti ed investire tre uomini, oppure deviare i binari ed investire un solo uomo; ci puoi spiegare meglio?
La copertina ritrae uno dei più celebri esperimenti mentali in filosofia, ossia il Trolley Problem.
Questo, nella sua versione canonica, dipinge una situazione in cui un treno sta proseguendo lungo dei binari. Ad un certo punto, però, sarà presente un bivio: da una parte, infatti, proseguendo nella stessa traiettoria troverà cinque persone, impossibilitate a muoversi, mentre, deviando impatterà solamente una persona che si trova nella stessa situazione degli altri esseri umani. La biforcazione simboleggia la scelta, la quale sarà affidata ad un essere umano situato al di fuori dello scenario predisposto che può decidere se tirare la leva facendo deviare il treno, che altrimenti proseguirebbe nel suo tragitto. Il lato morale di questo scenario sta tutto nel tipo di scelta che l’uomo farà e si basa sulle nozioni di “lasciar morire” e “uccidere intenzionalmente”, etichette con un peso morale che porteranno l’uomo a propendere per una scelta piuttosto che un’altra: infatti, può scegliere di far proseguire il treno lasciando che le cinque persone muoiano, oppure agire intenzionalmente facendolo girare e uccidendo una sola persona. Nel libro queste questioni che riguardano un treno vengono messo in relazione al campo delle AI ed è per tale motivo che nella copertina è presente il prototipo automatico di Google.
La scelta, che presenta evidenti difficoltà morali, verrà risolta in maniera più efficace in questo senso.

Quali credi possano essere i vantaggi e gli svantaggi dell’Intelligenza artificiale, da un punto di vista filosofico e morale?
Più che di vantaggi e svantaggi in generale, penso si debba tenere in conto di alcuni problemi filosofici, principalmente di carattere etico, che riguardano il campo dell’intelligenza artificiale. All’interno di quest’ultimo, per far sì che tali mezzi portino dei benefici all’umanità intesa come intero, è necessario che la filosofia ricopra un ruolo di primo piano: identificare i problemi, cercando di mitigarli dove possibile in modo da investire questi mezzi di un senso teleologico, cioè, orientandoli verso un fine sociale. Nel caso studio del libro, ad esempio, il lato filosofico riguarda il tipo di etica da impiantare nel software della Google Car per orientare tali scelte. A tal proposito, difatti, possono essere prese in considerazione due tipi di quadri etici: se si segue l’utilitarismo, ad esempio, che considera come morale l’azione che massimizza a livello quantitativo il bene generale in quanto valuta gli individui allo stesso modo, l’AI sarà propensa a minimizzare il danno generale, mentre seguendo il deontologismo, che associa la moralità a determinate norme di comportamento, la decisione non sarà un mero calcolo matematico, ma potrà tenere in conto altri fattori, come, ad esempio, il fatto che l’uomo sull’altro binario potrebbe essere un medico che ha un occhio di riguardo al benessere sociale, mentre sulla traiettoria le cinque persone potrebbero non avere lo stesso valore da un punto di vista sociale. Come si può vedere le domande sono tante e, se si osserva il fenomeno più da vicino, ne potrebbero sorgere delle altre, come quelle inerenti alla responsabilità. Difatti, nel campo delle AI, e più in particolare in quello dei veicoli autonomi, ci si può chiedere a chi quest’ultima vada attribuita: alla persona presente in tali veicoli, al programmatore del software, all’azienda che distribuisce il veicolo, oppure alla macchina stessa. L’avvento delle AI, dunque, pone tutti questi interrogativi che non possono essere trascurati, dal momento che queste nuove entità si trovano a convivere con l’essere umano agendo moralmente con lui e con il mondo.
Ringraziamo Mattia Corsini per averci parlato del suo saggio: “Umanesimo digitale. Transumanesimo. Intelligenza Artificiale. Il caso della Google Car” e per la disponibilità.