Ontologia senza morale
Nella monumentale biografia su Alan Turing, Alan Hodges definisce il grande matematico un figlio dell’impero britannico. A quanto pare di origini scozzesi, tra gli antenati dello scienziato figurano esponenti della piccola aristocrazia terriera sin dal primo Seicento. Un Sir Robert Turing fa fortuna in India. Suo cugino, John Robert Turing – il nonno di Alan – studia matematica a Cambridge. Suo figlio Julius serve quale alto funzionario dell’Indian Civil Service. Alan nasce a Londra e a lui la tradizione ascrive il compimento dei primi passi concreti verso la c.d. ‘intelligenza artificiale’. Tuttavia, dobbiamo andare indietro, perché le teorizzazioni sull’argomento possono farsi risalire alle intuizioni di Ada Lovelace, figlia di Lord George Byron, che nella Nota G allo scritto su Charles Babbage del matematico piemontese Luigi Federico Menabrea scrive: “La macchina analitica non ha alcuna pretesa di creare qualcosa. Può fare tutto ciò che sappiamo ordinargli di fare. Può seguire l’analisi, ma non ha il potere di anticipare alcuna relazione o verità analitica. Il suo compito è quello di aiutarci a rendere disponibile ciò che già conosciamo. Questo è il suo scopo principale e principale, naturalmente, attraverso le sue facoltà esecutive; ma è probabile che eserciti un’influenza indiretta e reciproca sulla scienza stessa in un altro modo. Infatti, distribuendo e combinando le verità e le formule dell’analisi in modo da renderle più facilmente e rapidamente accessibili alle combinazioni meccaniche del motore, le relazioni e la natura di molti argomenti di quella scienza vengono necessariamente messe in nuova luce e studiate più a fondo. Si tratta di una conseguenza decisamente indiretta e un po’ speculativa di tale invenzione. È tuttavia abbastanza evidente, in base a principi generali, che nel concepire per le verità matematiche una nuova forma in cui registrarsi e proporsi per l’uso effettivo, è probabile che si inducano opinioni che dovrebbero reagire nuovamente sulla fase più teorica del soggetto. In tutte le estensioni del potere umano, o nelle aggiunte alla conoscenza umana, ci sono varie influenze collaterali, oltre all’oggetto principale e primario raggiunto. Per tornare alle facoltà esecutive di questa macchina: in ogni mente deve sorgere la domanda: sono davvero in grado di seguire l’analisi in tutta la sua estensione? Non si può dare una risposta del tutto soddisfacente per tutte le menti a questo quesito, se non attraverso l’effettiva esistenza della macchina e l’esperienza concreta dei suoi risultati pratici”[1].
Il termine ‘intelligenza artificiale’ è stato utilizzato diffusamente tra gli anni Cinquanta e Settanta circa, per poi cadere in discredito durante il c.d. “AI Winter” sino a metà dei Novanta. Settori come supervised and unsupervised machine learning, symbolic and statistical natural language processing e data science non venivano dunque indicati come AI. L’uso è tornato a crescere intorno al 2012 (specie col passaggio all’approccio a rete ‘neurale’) e quasi tutte le scienze dei dati e persino le tecnologie avanzate vengono etichettate come AI. Da allora, molto è stato fatto. Nuovi linguaggi di programmazione ad alto livello, atti a essere applicati in molteplici settori, dalla medicina al diritto, dall’industria all’urbanistica e così via. Oggi se ne parla soprattutto in relazione alle implicazioni più rilevanti che derivano dall’applicazione di svariati dispositivi, l’accesso ai quali diventa sempre più di uso comune e quasi sempre non frutto di una scelta, ma necessitato. La direzione in cui si va è questa: nelle operazioni più banali della nostra vita quotidiana, le nostre azioni saranno sempre più “accompagnate”, per così dire, da mani artificiali, talora anche mani invisibili. È chiaro che le implicazioni cui mi riferisco sono rilevanti principalmente in quanto di carattere etico-politico.
Perché si parla di intelligenza artificiale? Questa è la domanda che scienziati, giuristi, matematici, politici e chiunque sia interessato alla risoluzione di problemi non si pone, e forse non ha nemmeno ragione di porsi. In quanto domanda propria di chi i problemi ama più porli che risolverli, essa è dunque una domanda filosofica – e, per quanto riguarda l’argomento in questione, la domanda filosofica per eccellenza. L’intelligenza è degli esseri senzienti, animali umani e non umani. Un tavolo o un frullatore sono prodotti artificiali e dunque non possono essere considerati intelligenti. Eppure, senza andare troppo lontano e senza arrivare ancora al nodo del problema, c’è un senso comune incline a definire ‘intelligenti’ cose certamente frutto dell’intelligenza umana ma ontologicamente non umane: un libro o un quadro possono essere definiti poco o molto ‘intelligenti’, nel senso che sono manifestazioni dell’intelligenza del loro autore. E tuttavia, qualunque essere sano di mente riconoscerebbe che si tratti di cose inanimate che non sentono né provano dolore, e soprattutto non sono capaci di autodeterminarsi. Stessa cosa potrebbe dirsi di un sistema di regolazione di traffico urbano: una strada con semafori previene incidenti stradali, un incrocio con una rotonda migliora la circolazione, un ponte rende i collegamenti più veloci, e così via. Ancora una volta e senza accorgercene, con una operazione del tutto impropria logicamente quanto semanticamente efficace, assegniamo qualità di miglioramento e prevenzione a cose artificiali come semafori, rotonde e ponti, non riflettendo sul fatto si tratti di prodotti realizzati dall’intelligenza umana. Arriviamo addirittura a dire, in tempi recenti, che esiste persino una sorta di principio del contrappasso nella natura, come se questa fosse un’entità coscienziale capace di ribellarsi alle azioni dell’uomo. Nella controversa dimensione della c.d. ‘giustizia climatica’, non sono rare le argomentazioni che utilizzano, non so quanto consapevolmente o metaforicamente, l’immagine di una natura che si rivolta contro la malvagità dell’opera umana. Ammesso che la causa di determinati fenomeni atmosferici sia opera dell’uomo, dire che la natura si ribelli contro le malefatte umane è un’affermazione equivalente a quella dei primitivi che assegnavano al fulmine distruttore l’esercizio della vendetta divina. Se c’è una reazione, questa è di tipo causale e non imputativo. Al fulmine non posso imputare nulla, perché non è responsabile. E nemmeno al quadro, se mi causa la sindrome di Stendhal: metterlo in gattabuia e liberarlo dopo cinque anni potrebbe provocarmi nuovamente la stessa reazione.
Non vedo perché, pertanto, di fronte a cose come automi, sistemi informatici tecnologicamente avanzati, robot e quant’altro, dovremmo cambiare tipo di argomentazione riconoscendo a cose come queste lo status di ‘macchine intelligenti’. Intelligenza implica libertà, personalità e responsabilità. Se un robot ci aggredisce e ci spezza il braccio, lo dobbiamo processare e punire? Ci preoccupiamo di disattivarlo perché potrebbe soffrire? Se arriviamo a concepire cose del genere, siamo probabilmente più vicini ai primitivi di quanto non pensiamo di essere. D’altra parte, chiediamoci qual è il significato che presiede a un’azione come quella di fare a pezzi o rimuovere opere d’arte come sculture di nudo perché ritenute oscene, o perché le statue di Cristoforo Colombo vengono mutilate o abbattute, come se le scoperte geografiche del tardo Quattrocento fossero la causa prima di tutte le violenze contro i nativi d’America.
In un momento storico difficile come questo, culturalmente in crisi e politicamente in rovina, il discorso sull’intelligenza delle macchine inquieta non poco anche dal punto di vista della nostra vita quotidiana. La disintermediazione tra il nostro senso critico individuale e ciò che ci accade intorno sta producendo una spaccatura senza precedenti, in cui un evento dirompente come quello delle macchine artificiali rischia di sfuggire di mano.
A livello legislativo, la preoccupazione è evidente nei documenti europei e nelle legislazioni domestiche del Vecchio Continente.
Il Parlamento Europeo ha innanzitutto predisposto delle Norme di diritto civile sulla robotica con Risoluzione del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)). L’incipit è decisamente letterario: “A) Considerando che, dal mostro di Frankenstein ideato da Mary Shelley al mito classico di Pigmalione, passando per la storia del Golem di Praga e il robot di Karel Čapek, che ha coniato la parola, gli esseri umani hanno fantasticato sulla possibilità di costruire macchine intelligenti, spesso androidi con caratteristiche umane; B) Considerando che l’umanità si trova ora sulla soglia di un’era nella quale robot, bot, androidi e altre manifestazioni dell’intelligenza artificiale sembrano sul punto di avviare una nuova rivoluzione industriale, suscettibile di toccare tutti gli strati sociali, rendendo imprescindibile che la legislazione ne consideri le implicazioni e le conseguenze legali ed etiche, senza ostacolare l’innovazione; C) considerando che è necessario creare una definizione generalmente accettata di robot e di intelligenza artificiale che sia flessibile e non ostacoli l’innovazione; considerando che le leggi di Asimov[2] devono essere considerate come rivolte ai progettisti, ai fabbricanti e agli utilizzatori di robot, compresi i robot con capacità di autonomia e di autoapprendimento integrate, dal momento che tali leggi non possono essere convertite in codice macchina” […], “invita la Commissione a proporre definizioni europee comuni di sistemi ciberfisici, di sistemi autonomi, di robot autonomi intelligenti e delle loro sottocategorie, prendendo in considerazione le seguenti caratteristiche di un robot intelligente: l’ottenimento di autonomia grazie a sensori e/o mediante lo scambio di dati con il suo ambiente (interconnettività) e lo scambio e l’analisi di tali dati; l’autoapprendimento dall’esperienza e attraverso l’interazione (criterio facoltativo); almeno un supporto fisico minore; l’adattamento del proprio comportamento e delle proprie azioni all’ambiente; l’assenza di vita in termini biologici”[3].
Il 3 novembre 2021 la Banca centrale europea (BCE) ha ricevuto dal Consiglio dell’Unione europea una richiesta di parere su una proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (Legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione (da cui la “proposta di regolamento”). La BCE rende quindi in data 29 dicembre 2021 il parere. In apertura, detto parere precisa che “La BCE accoglie con favore l’obiettivo della proposta di regolamento di migliorare il funzionamento del mercato interno stabilendo un quadro giuridico uniforme per lo sviluppo, la commercializzazione e l’uso di un’intelligenza artificiale (IA) affidabile in conformità ai valori dell’Unione. La BCE riconosce l’importanza di stabilire requisiti armonizzati specifici per i sistemi di IA al fine di garantire un livello elevato e coerente di protezione di motivi imperativi di interesse pubblico quali la salute, la sicurezza e i diritti fondamentali”[4]. L’AI ACT [European Parliament Legislative Resolution of 13 March 2024 on the proposal for a regulation of the European Parliament and of the Council on laying down harmonised rules on Artificial Intelligence – Artificial Intelligence Act – and amending certain Union Legislative Acts (COM(2021)0206 – C9-0146/2021 – 2021/0106(COD)] è stato definitivamente approvato dall’UE[5]. Lo scopo principale del Regolamento dovrebbe essere quello di tutelare le libertà degli individui dagli abusi dell’AI. Il Parlamento Europeo ha approvato così il primo documento legislativo mondiale sull’intelligenza artificiale, che dovrebbe garantire la sicurezza e i diritti fondamentali delle persone, assicurando allo stesso tempo il farsi strada della tecnologia. Su impulso di (e in armonia con) questo Atto europeo, il Governo Italiano (Consiglio dei Ministri n. 78 del 23.4.24) ha prodotto il Disegno di legge recante disposizioni e delega al Governo in materia di intelligenza artificiale[6].
L’attenzione è quella di salvaguardare i diritti e le libertà degli individui, arginando le ipotesi di rischio derivanti da uno scenario futuro sempre più popolato da macchine nell’attività umana. Una difficile ma comprensibile Abwägung sembra profilarsi giuridicamente: quella tra la protezione dei diritti e delle libertà degli individui dalle macchine da un lato, e l’esigenza di garantire l’innovazione tecnologica dell’AI, dall’altro.
Siamo in una fase pionieristica, nella quale le domande prevalgono sulle risposte.
[1]https://www.fourmilab.ch/babbage/sketch.html [propria traduzione], ultima visita sito web: 29/09/2024.
[2][(1) Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. (2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge. (3) Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge. e (4) Un robot non può recare danno all’umanità, né può permettere che, a causa del proprio mancato intervento, l’umanità riceva danno.] Il racconto di Isaac Asimov è Runaround (1942).
[3]https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:52017IP0051&from=DE#:~:text=C%20252%2F241-,Gioved%C3%AC%2016%20febbraio%202017,non%20contravvengano%20alla%20Prima%20Legge, ultima visita sito web: 29/09/2024.
[4]https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=OJ:C:2022:115:FULL, ultima visita sito web: 29/09/2024.
[5]https://www.europarl.europa.eu/doceo/document/TA-9-2024-03-13_EN.html#sdocta2, ultima visita sito web: 29/09/2024.
[6]https://www.fiscoetasse.com/files/18248/ddl-intelligenza-artificiale-post-precdm-23-04-2024.pdf, ultima visita sito web: 29/09/2024.