Recensione: “La società del surrogato. Benessere e insoddisfazione umana” di Stefania Lombardi

di Danilo Campanella

Recensione: “La società del surrogato. Benessere e insoddisfazione umana” di Stefania Lombardi © 2024 by Danilo Campanella is licensed under CC BY-SA 4.0

Copertina di copyright editore; qui a solo fine illustrativo

Recensione di Danilo Campanella, scrittore

doi: 10.14672/VDS20243RE11

(http://doi.org/10.14672/VDS20243RE11)

Titolo: La società del surrogato. Benessere e insoddisfazione umana

Autrice: Stefania Lombardi

Formato: 13.97 x 0.81 x 21.59 cm, p. 104

Editore: goWare, 2023

Non soltanto i filosofi, ma anche i sociologi e gli psicologi riscontrano quanto nella società postmoderna l’insoddisfazione non sia scomparsa con il progressivo miglioramento del tenore di vita generale, piuttosto si è trasformata.

L’insoddisfazione è sempre presente nelle nostre vite e non ci consente, di fatto, di gustare appieno le conquiste della nostra epoca.

Stefania Lombardi, autrice de La società del surrogato, parte con un’analisi della natura desiderante. Principiando con alcune considerazioni preliminari inerenti alla società del benessere e alla piramide di Maslow, l’autrice già nel primo capitolo pone interessanti domande riguardo il nodo tra insoddisfazione umana e società dei consumi.

Un discorso già analizzato in passato da altri autori, ma che lei affronta in modo semplice, comprensibile e diretto.

Il rapporto tra bisogno e desiderio avrebbe un labile equilibrio (cit. p. 16) e l’autrice, attraverso il filosofo Hegel, si chiede se il desiderio sia “di” cosa o “verso” cosa (p. 17), in una lotta per il riconoscimento di hegeliana memoria in cui questo, il desiderio, sarebbe una molla, una spinta, intrinseca e necessaria dell’essere umano.

Ne conseguirebbe che esistono desideri naturali, (fisiologici, genuini), ed altri che, invece, non lo sarebbero. È l’esempio dei desideri creati. Se per desiderio creato si intende quello indotto, artificiale, proprio della società dei consumi, come possiamo distinguere gli uni dagli altri? Affascinanti gli esempi che l’autrice pone, nel corso della narrazione, assieme ad accostamenti letterari e cinematografici, che vanno dal Faust letterario al film Highlander del 1986, solo per citarne due.
Oltre al trionfo della Vanitas riscontrabile nei social network è nel tema del riconoscimento che l’autrice tocca la psicologia e la psicanalisi, fino a sfiorare la pedagogia, toccando il tema di quella identità che, se decostruita e annullata (p. 40), si spoglia “della natura desiderante e diviene plasmabile come un morto in vita” (cit. pp. 40-41). Una escalation, quella del desiderio, che parte da una mancanza e che chiede di affermarsi partendo dalla relazione (p. 56).

La Lombardi non manca di esaminare il concetto di identità in una prospettiva spaziale, in cui rientrano i concetti di confine e di limite. Utile, a mio avviso, l’accostamento con il pensiero kantiano e l’orientarsi dell’uomo nel mondo fenomenico.

L’autrice, da filosofa sopraffina, non priva il lettore di una riflessione sul “privato” e sulla solitudine, anche alla luce del pensiero della Arendt, filosofa che già individuava nella solitudine una caratteristica della società umana priva di uno spazio comune di incontro (p. 78).

Dunque, se alla base del desiderio vi è la relazione, viene da sé considerare l’importanza dell’autonomia nella vita pulsionale – e non solo – dell’essere umano. Il tema della distanza, e dell’autonomia, minacciata dalla società dei consumi, è un tema anche questo affrontato dall’autrice del suo breve ma incisivo saggio, arrivando a sottolineare l’assurdità di soddisfare con dei surrogati ciò che potrebbe, o dovrebbe, venire soddisfatto con gli strumenti della relazione.

Questo modello del surrogato, che non si limita agli esempi fatti, uno per tutti, il ciuccio del neonato, sarebbe presente maggiormente nelle società occidentali, rispetto alle società non consumistiche che, guarda caso, sono anche quelle società definibili “ad alto contatto” (p. 94), eccezioni a parte.
Nelle nostre società occidentali la sola relazione che incalza ormai sembra essere quella per il mercato, e il contatto, con gli strumenti del mercato, frutto dei desideri creati, con i surrogati.

Il saggio della Lombardi, nella collana di filosofia dell’editrice goWare, è un’opera in cui l’autrice avrebbe potuto trovare un ulteriore spazio di approfondimento nella tematica dei neuroni specchio, riguardo il tema sul riconoscimento, in cui filosofia e psicologia si incontrano sempre di più, godendo dei dati empirici delle scienze sperimentate; tuttavia, ci auguriamo che questa opera sia solo l’inizio di ulteriori approfondimenti per i suoi lettori, verso un tema in cui ci troviamo tutti immersi, in una società, quella del benessere e dei consumi, citata più volte dalla Lombardi, in cui finiamo per subirne i meccanismi, limitando così la nostra libertà e la nostra autonomia. Questo saggio è uno strumento per riappropriarci, un poco, di quella autonomia a noi tanto cara ma che rischiano di perdere, tra un acquisto e l’altro.

La Maieutica Digitale: Come il Promt Engineering Stimola la Conoscenza in ChatGPT

di Paolo Cappella, PhD, ORCID: 0000-0002-3401-4246

e-mail: paoloelia.cappella@gmail.com

doi: 10.14672/VDS20243IP13

(http://www.doi.org./10.14672/VDS20243IP13)

La Maieutica Digitale: Come il Promt Engineering Stimola la Conoscenza in ChatGPT © 2024 by Paolo Cappella is licensed under CC BY-SA 4.0

Abstract

La maieutica, antica metodologia socratica volta a far emergere la conoscenza attraverso il dialogo, trova oggi una nuova espressione nell’era digitale attraverso il prompt engineering. Questo articolo esplora come il prompt engineering possa essere utilizzato per stimolare e guidare la generazione di conoscenza nei modelli di linguaggio avanzati come ChatGPT. Attraverso un’analisi interdisciplinare, vengono esaminati i fondamenti teorici della maieutica digitale, il ruolo del prompt engineering nell’interazione uomo-macchina, le implicazioni sociologiche ed educative e vari casi di studio che illustrano le applicazioni pratiche di questa pratica emergente. Vengono inoltre affrontate le sfide etiche e le prospettive future, offrendo una visione completa di come la maieutica digitale possa contribuire al progresso dell’educazione e della società nell’era dell’intelligenza artificiale.

Keyword: intelligenza artificiale, maieutica, ChatGPT, prompt engineering

Abstract

Maieutics, an ancient Socratic methodology aimed at bringing forth knowledge through dialogue, finds new expression in the digital era through prompt engineering. This article explores how prompt engineering can be used to stimulate and guide the generation of knowledge in advanced language models like ChatGPT. Through an interdisciplinary analysis, the theoretical foundations of digital maieutics are examined, as well as the role of prompt engineering in human-machine interaction, its sociological and educational implications, and various case studies that illustrate practical applications of this emerging practice. Ethical challenges and prospects are also addressed, providing a comprehensive view of how digital maieutics can contribute to the advancement of education and society in the age of artificial intelligence.

Keywords: Artificial intelligence, Maieutics, ChatGPT, prompt engineering

Introduzione

La maieutica, pratica filosofica introdotta da Socrate nel V secolo a.C., rappresenta uno dei metodi più influenti per stimolare la riflessione critica e l’auto-scoperta della conoscenza. Il termine deriva dal greco antico “maieutiké”, che significa “arte della levatrice”, e riflette l’idea che il filosofo non impartisce conoscenza, ma aiuta l’interlocutore a “partorire” le proprie idee attraverso il dialogo e la domanda incisiva. Questo approccio si basa sulla convinzione che la verità risieda già all’interno dell’individuo e che il ruolo del filosofo sia quello di facilitare l’emergere di questa conoscenza latente.

Nel corso dei secoli, la maieutica ha influenzato profondamente le pratiche educative e pedagogiche, promuovendo un apprendimento attivo e centrato sul discente. Con l’avvento delle tecnologie digitali e dell’intelligenza artificiale (IA), si presenta l’opportunità di rivisitare questo antico metodo in un contesto moderno, dando vita alla cosiddetta maieutica digitale. Questa nuova forma di interazione combina i principi della maieutica socratica con le capacità avanzate dei modelli di linguaggio come ChatGPT, sviluppati da OpenAI. Questi modelli, basati su reti neurali profonde e addestrati su vasti insiemi di dati testuali, sono in grado di generare risposte coerenti e contestualmente appropriate a una vasta gamma di domande e richieste.

Il prompt engineering emerge come una pratica fondamentale in questo contesto. Si tratta dell’arte di formulare input testuali in modo strategico per guidare il modello di linguaggio verso la generazione di risposte specifiche e desiderate. Attraverso una progettazione attenta dei prompt, l’utente può influenzare significativamente la qualità e la pertinenza delle risposte generate dall’IA. Questo processo riflette la natura dialogica della maieutica, in cui il confronto e l’iterazione portano a una comprensione più profonda.

La maieutica digitale non è solo una questione tecnica, ma ha profonde implicazioni sociologiche ed educative. Nell’ambito dell’educazione contemporanea, offre nuove opportunità per personalizzare l’apprendimento, stimolare il pensiero critico e sviluppare competenze digitali avanzate. Gli studenti possono interagire con l’IA per approfondire argomenti di interesse, ricevere spiegazioni su misura e colmare le proprie lacune conoscitive. Questo approccio favorisce l’autonomia dello studente e promuove un apprendimento autodiretto.

A livello sociologico, l’introduzione massiva dell’IA nella società modifica le dinamiche delle interazioni sociali e la distribuzione della conoscenza. L’accesso diffuso a strumenti come ChatGPT può democratizzare l’informazione, rendendola più accessibile a livello globale. Tuttavia, esistono rischi legati alle disuguaglianze digitali, alla privacy dei dati e alla possibile amplificazione di bias presenti nei dati di addestramento dei modelli di IA.

Questo articolo si propone di esplorare i fondamenti teorici della maieutica digitale, analizzando come il prompt engineering possa essere considerato una forma contemporanea della pratica socratica. Verranno esaminati i principi chiave che guidano l’interazione efficace con i modelli di linguaggio, le tecniche avanzate per ottimizzare i prompt e le sfide etiche e pratiche associate. Inoltre, si discuteranno le implicazioni educative e sociologiche di questa nuova frontiera dell’interazione uomo-macchina, evidenziando come possa trasformare l’apprendimento, la comunicazione e la società nel suo complesso.

Fondamenti Teorici della Maieutica Digitale

La maieutica socratica rappresenta uno dei pilastri fondamentali della filosofia occidentale e della pedagogia. Socrate, attraverso i dialoghi riportati da Platone, ci presenta un metodo di indagine che si distingue per la sua profondità e per la capacità di stimolare il pensiero critico negli interlocutori. Il termine “maieutica” deriva dal greco antico “maieutiké”, che significa “arte della levatrice”. Questa metafora sottolinea come Socrate considerasse il suo ruolo simile a quello di una levatrice che assiste nel processo di nascita, ma in questo caso si tratta della nascita delle idee e della conoscenza all’interno dell’animo dell’individuo.

Uno degli aspetti chiave della maieutica è il concetto del “sapere di non sapere”. Socrate riteneva che il primo passo verso la vera conoscenza fosse la consapevolezza della propria ignoranza. Questo atteggiamento di umiltà intellettuale apre la mente alla ricerca e all’apprendimento, liberando l’individuo dalla presunzione di sapere già tutto. La famosa affermazione “So di non sapere” sottolinea l’importanza di riconoscere i propri limiti come punto di partenza per la crescita personale.

Il metodo socratico si basa sul dialogo dialettico, un processo interattivo di domande e risposte che mira a esplorare idee e concetti in profondità. Socrate poneva domande incisive e talvolta provocatorie per spingere gli interlocutori a riflettere criticamente sulle proprie credenze. Questo processo aiutava a smascherare contraddizioni interne e a favorire una comprensione più autentica. L’ironia socratica è una strategia comunicativa in cui Socrate fingeva ignoranza su un argomento per incoraggiare l’interlocutore a esprimere liberamente le proprie opinioni. Questo approccio permetteva di mettere in luce le incoerenze nel pensiero dell’altro, senza confronti diretti o scontri aperti, creando un ambiente di apprendimento collaborativo dove la verità poteva emergere attraverso l’auto-riflessione.

La maieutica promuoveva la riflessione interiore come mezzo per raggiungere la conoscenza. Socrate credeva che ogni individuo possedesse già dentro di sé le verità fondamentali e che il ruolo del filosofo fosse quello di aiutare a portarle alla luce. Questo processo richiedeva un esame critico delle proprie convinzioni e una disposizione a mettere in discussione le idee preconcette. Non era solo un metodo per acquisire conoscenza teorica, ma anche uno strumento per il miglioramento morale. Socrate sosteneva che attraverso la comprensione profonda di concetti come la giustizia, la virtù e il bene, gli individui potessero vivere vite più etiche e soddisfacenti. La ricerca della verità era quindi strettamente legata allo sviluppo del carattere e alla felicità personale.

Le idee socratiche hanno influenzato profondamente le pratiche educative contemporanee. Approcci come l’apprendimento basato sul dialogo, il problem-based learning e l’educazione centrata sullo studente riflettono i principi della maieutica. Gli educatori moderni riconoscono l’importanza di coinvolgere attivamente gli studenti nel processo di apprendimento, incoraggiandoli a formulare domande e a sviluppare capacità di pensiero critico.

Con l’avvento delle tecnologie digitali e dell’AI, il concetto tradizionale di dialogo ha subito una trasformazione significativa. Il dialogo non è più limitato alle interazioni tra esseri umani, ma si estende alle comunicazioni tra umani e macchine intelligenti. Questa evoluzione apre nuove prospettive e sfide nel modo in cui comprendiamo e pratichiamo il dialogo. Le interfacce uomo-macchina sono passate da semplici comandi testuali a sistemi avanzati di elaborazione del linguaggio naturale. Assistenti virtuali come Siri, Alexa e Google Assistant rappresentano esempi di come le macchine possano interagire verbalmente con gli utenti, utilizzando algoritmi di IAper comprendere il linguaggio umano e generare risposte appropriate. Modelli come ChatGPT si basano su reti neurali profonde e sono addestrati su vasti insiemi di dati testuali. Sono in grado di generare testo coerente e contestualmente rilevante, simulando in certa misura la conversazione umana. Questa capacità apre la possibilità di utilizzare le macchine come interlocutori in ambiti educativi, terapeutici e di intrattenimento.

Il passaggio dal dialogo umano al dialogo con le macchine solleva questioni sulla natura della comunicazione e della comprensione. Se il dialogo è un processo di scambio di significati e costruzione condivisa della conoscenza, fino a che punto una macchina può partecipare autenticamente a questo processo? La capacità delle macchine di simulare il linguaggio umano ci porta a riflettere sulla differenza tra elaborazione sintattica e comprensione semantica.

Il prompt engineering è l’arte di formulare input testuali in modo tale da guidare un modello di linguaggio verso la generazione di risposte specifiche e desiderate. In un certo senso, è una moderna incarnazione della maieutica, in cui l’utente, attraverso domande ben strutturate, stimola l’IA a “partorire” conoscenza. I principi del prompt engineering includono chiarezza e precisione, contestualizzazione, strutturazione e l’uso di esempi guidati. Il processo è spesso iterativo, richiedendo sperimentazione e adattamento. Questo riflette la natura dialogica della maieutica, dove il dialogo è un mezzo per esplorare e approfondire la comprensione.

Le teorie cognitive e l’apprendimento costruttivista forniscono un quadro fondamentale per comprendere come gli individui acquisiscono e costruiscono conoscenza. Secondo il costruttivismo, l’apprendimento è un processo attivo in cui gli individui costruiscono nuove conoscenze basandosi sulle proprie esperienze e interazioni con l’ambiente. I principi del costruttivismo enfatizzano l’apprendimento attivo, la costruzione della conoscenza, l’importanza del contesto e il valore dell’esperienza precedente. Lev Vygotskij ha introdotto il concetto di Zona di Sviluppo Prossimale, che rappresenta la distanza tra ciò che un individuo può fare da solo e ciò che può fare con l’aiuto di un esperto o di un pari più competente. Questo concetto sottolinea l’importanza dell’interazione sociale nell’apprendimento e fornisce una base teorica per l’uso dell’IA come strumento di supporto educativo.

L’IA può essere vista non solo come uno strumento passivo, ma come un vero e proprio partner cognitivo che assiste e amplifica le capacità umane. Questa collaborazione tra uomo e macchina apre nuove possibilità per l’apprendimento, la creatività e la risoluzione di problemi complessi. Secondo la teoria dell’estensione cognitiva, le tecnologie possono estendere le funzioni cognitive umane al di là dei limiti biologici. L’IA può ampliare le capacità di elaborazione delle informazioni, analisi dei dati e generazione di idee. La collaborazione con l’IA può portare a co-creazione in ambiti come l’arte, la musica e la scrittura, analisi avanzate di grandi quantità di dati e supporto decisionale in settori come la medicina, la finanza e la gestione aziendale.

L’uso diffuso dell’IA comporta sfide etiche che devono essere affrontate per garantire un impatto positivo sulla società. Principi etici fondamentali come beneficenza, non maleficenza, autonomia e giustizia devono guidare lo sviluppo e l’utilizzo dell’IA. I modelli di IA possono riflettere e amplificare bias presenti nei dati di addestramento, portando a risultati discriminatori. È necessario implementare tecniche per identificare e correggere questi bias, come l’uso di dataset bilanciati e algoritmi correttivi. Gli utenti devono essere in grado di comprendere come l’IA prende decisioni e genera risposte; modelli interpretabili e informazioni chiare sono fondamentali per garantire la trasparenza.

La maieutica digitale si colloca all’incrocio di diverse discipline, beneficiando della sinergia tra filosofia, linguistica e tecnologia. La filosofia offre un quadro per comprendere la natura della conoscenza, l’etica e la coscienza, mentre la linguistica contribuisce con l’analisi del significato delle parole e delle frasi, e la tecnologia fornisce gli strumenti per sviluppare sistemi di IA avanzati. Questa convergenza arricchisce la maieutica digitale, consentendo di creare interazioni con l’IA che siano più significative, etiche e umane.

L’intenzionalità, concetto filosofico che si riferisce alla capacità della mente di essere diretta verso qualcosa, assume un ruolo particolare nell’interazione con l’IA, poiché quest’ultima non possiede coscienza o intenzioni proprie. Gli utenti devono guidare attivamente l’interazione, formulando prompt chiari e specifici, e interpretare criticamente le risposte dell’IA, tenendo conto delle sue limitazioni. Attribuire intenzioni all’IA può portare a fraintendimenti e aspettative irrealistiche.

Nonostante le potenzialità della maieutica digitale, esistono limiti e sfide da affrontare per garantire un uso efficace ed etico dell’IA. Limitazioni tecnologiche come la comprensione superficiale, le allucinazioni dell’IA e la dipendenza dal prompt rappresentano sfide tecniche. Esistono rischi di dipendenza tecnologica, disuguaglianze nell’accesso, etica e uso malevolo, oltre a problemi di privacy e sicurezza. È necessario promuovere l’alfabetizzazione digitale e la formazione continua, sviluppare politiche inclusive, integrare considerazioni etiche nel design dei sistemi di IA e creare normative che proteggano gli individui e la società dai rischi associati all’IA.

La maieutica digitale rappresenta un’intersezione affascinante tra filosofia antica e tecnologia moderna. Attraverso l’analisi dei fondamenti teorici, abbiamo esplorato come il prompt engineering possa essere visto come una forma contemporanea di maieutica, utilizzata per stimolare la conoscenza e promuovere l’apprendimento attivo. Non è solo un concetto teorico, ma una pratica emergente con implicazioni concrete per il modo in cui apprendiamo, comunichiamo e viviamo. Rappresenta un’opportunità per rivisitare antiche saggezze alla luce delle tecnologie moderne, costruendo un ponte tra passato e futuro. Attraverso un uso consapevole e responsabile del prompt engineering e dell’IA, possiamo promuovere una società più informata, equa e orientata al benessere collettivo.

Il Ruolo del Prompt Engineering nell’Interazione con ChatGPT

      L’interazione con modelli di linguaggio avanzati come ChatGPT rappresenta una delle innovazioni più significative nell’ambito dell’IA e dell’elaborazione del linguaggio naturale. Per sfruttare appieno le potenzialità di questi modelli, è fondamentale comprendere e applicare efficacemente il prompt engineering, l’arte di formulare input testuali in modo strategico per guidare il modello verso la generazione di output desiderati. Questa pratica diventa un ponte tra l’utente e l’IA, consentendo una comunicazione più efficace e un utilizzo ottimale delle capacità del modello.

      Il prompt engineering può essere definito come il processo di progettazione e ottimizzazione di prompt, ovvero input testuali forniti a un modello di linguaggio, con l’obiettivo di ottenere risposte specifiche e pertinenti. L’importanza di questa pratica risiede nella capacità di influenzare significativamente la qualità e la rilevanza delle risposte generate dall’IA. Poiché i modelli di linguaggio generano output basandosi sui dati di addestramento e sulla comprensione statistica del linguaggio, la formulazione del prompt diventa essenziale per indirizzare il modello verso l’interpretazione corretta delle richieste.

      Per sfruttare appieno le potenzialità di ChatGPT, è essenziale applicare alcune tecniche di prompt engineering. La chiarezza e la precisione nella formulazione del prompt aiutano il modello a comprendere esattamente ciò che viene richiesto, riducendo l’ambiguità e migliorando la pertinenza della risposta. La contestualizzazione fornisce al modello informazioni aggiuntive che possono guidarlo nell’elaborazione di una risposta più accurata. L’uso di istruzioni esplicite, limitazioni e vincoli permette di definire i confini entro cui il modello deve operare, mentre l’inclusione di esempi può aiutare a illustrare il formato o lo stile della risposta desiderata.

      Il prompt engineering è spesso un processo iterativo. Dopo aver ricevuto una risposta dall’IA, l’utente può valutare se essa soddisfa le proprie esigenze e, in caso contrario, modificare il prompt di conseguenza. Questo processo di affinamento continuo riflette l’interazione dialogica tipica della maieutica, dove attraverso domande successive si arriva a una comprensione più profonda. Questa iterazione consente di migliorare gradualmente l’efficacia dei prompt, adattandoli alle specificità del compito e alle risposte ottenute.

      Nonostante il prompt engineering sia uno strumento potente per ottimizzare l’interazione con modelli di linguaggio come ChatGPT, presenta una serie di sfide e limitazioni che gli utenti devono affrontare. I modelli di linguaggio, pur essendo avanzati, non possiedono una comprensione profonda del contesto umano. Elaborano le informazioni basandosi su pattern statistici presenti nei dati di addestramento, il che può portare a risposte che mancano di coerenza o pertinenza in situazioni complesse o altamente contestualizzate. La lingua naturale è intrinsecamente ambigua e soggetta a interpretazioni multiple; un prompt che per un utente umano sembra chiaro può essere interpretato in modo diverso dal modello, portando a risposte non previste.

      I modelli di IA possono riflettere e amplificare bias presenti nei dati di addestramento, sollevando preoccupazioni etiche e pratiche sull’affidabilità e l’equità dei risultati. Il risultato prodotto dal modello è altamente sensibile al prompt fornito: anche piccole variazioni nella formulazione possono portare a risposte significativamente diverse, rendendo difficile per gli utenti meno esperti ottenere l’output desiderato senza un processo di tentativi ed errori. Nonostante la loro potenza, i modelli come ChatGPT hanno limitazioni intrinseche. Possono fornire informazioni inesatte, mancare di conoscenza su eventi o dati successivi alla loro data di addestramento o fallire nel seguire istruzioni complesse che richiedono ragionamento logico profondo. L’elaborazione e la formulazione di prompt efficaci possono richiedere uno sforzo cognitivo significativo, specialmente in compiti complessi.

      Per affrontare queste sfide e migliorare l’efficacia del prompt engineering, sono state sviluppate diverse tecniche avanzate. Il few-shot learning implica l’inclusione di alcuni esempi nel prompt per illustrare al modello il tipo di risposta desiderata, aiutando il modello a cogliere meglio il formato e lo stile richiesti. Nel zero-shot learning, si richiede al modello di svolgere un compito senza fornire esempi, ma specificando chiaramente le istruzioni, utile per testare la capacità del modello di generalizzare a nuovi compiti. Il chain-of-thought prompting incoraggia il modello a “pensare ad alta voce”, fornendo una spiegazione passo-passo nel risolvere un problema, migliorando le prestazioni in compiti che richiedono ragionamento o calcoli complessi.

      Il prompting gerarchico consiste nel suddividere un compito complesso in sottocompiti più semplici e fornire prompt separati per ciascuno, aiutando a gestire compiti che richiedono diverse fasi di elaborazione. L’utilizzo di token speciali o formattazione, come elenchi puntati, numerazione o marcatori, può aiutare il modello a strutturare meglio la risposta. Includere istruzioni sullo stile o sul tono desiderato può guidare il modello a produrre output più appropriati per il contesto. Sebbene non tutti i modelli supportino input multimodali, alcuni sistemi avanzati permettono di combinare testo con immagini o altri dati, ampliando le possibilità del prompt engineering.

      Per comprendere meglio come il prompt engineering può essere applicato in contesti reali, consideriamo alcuni esempi pratici.

      Nel supporto alla programmazione, un prompt come “Scrivi una funzione in Python che calcoli il fattoriale di un numero intero positivo n” può portare il modello a fornire il codice sorgente richiesto. Nella creazione di contenuti educativi, chiedere “Spiega il concetto di ciclo cellulare in termini semplici, adatti a un bambino di 10 anni” può generare una spiegazione chiara e accessibile. Per la traduzione, un prompt come “Traduci il seguente testo dall’italiano all’inglese: ‘La transizione ecologica è fondamentale per il futuro del nostro pianeta’” permette di ottenere una traduzione accurata. Nella consulenza legale generica, si può richiedere “Quali sono i principali diritti dei consumatori quando acquistano online secondo la legge italiana?”, ottenendo un elenco dei diritti principali come il diritto di recesso e la garanzia legale.

      Il prompt engineering non è solo uno strumento per migliorare l’interazione con i modelli di linguaggio, ma gioca anche un ruolo significativo nell’ambito più ampio dell’apprendimento automatico. Attraverso prompt ben progettati, è possibile sfruttare al meglio le capacità del modello senza la necessità di ulteriori fasi di addestramento o fine-tuning, rendendo il processo più efficiente e accessibile. Permette di adattare un modello generico a domini specifici, fornendo contesto e istruzioni pertinenti, particolarmente utile quando si lavora in settori specialistici come medicina, legge o ingegneria.

      Formulando prompt che tengono conto di potenziali bias, gli utenti possono guidare il modello a produrre output più equi e inclusivi, evitando linguaggio discriminatorio o chiedendo esplicitamente neutralità. Il prompt engineering è fondamentale per implementare tecniche di few-shot e zero-shot learning, che permettono al modello di svolgere nuovi compiti senza la necessità di grandi quantità di dati di addestramento aggiuntivi. Un buon prompt engineering contribuisce alla creazione di applicazioni più intuitive per l’utente finale, riducendo la necessità di interfacce complesse o istruzioni dettagliate. Nella ricerca sull’intelligenza artificiale, il prompt engineering è utilizzato per esplorare le capacità e i limiti dei modelli di linguaggio, aiutando a identificare aree di miglioramento e guidare lo sviluppo di nuove architetture.

      Il prompt engineering emerge quindi come una competenza chiave nell’interazione con modelli di linguaggio avanzati come ChatGPT. Comprendere come formulare prompt efficaci permette agli utenti di sfruttare appieno le potenzialità dell’IA, ottenendo risposte più pertinenti, accurate e utili. La pratica del prompt engineering richiama l’antica arte della maieutica socratica, dove l’abilità di porre le domande giuste è fondamentale per far emergere la conoscenza. Allo stesso tempo, presenta sfide uniche legate alle limitazioni tecniche dei modelli, ai bias nei dati e alla complessità della lingua naturale.

Attraverso l’applicazione di tecniche avanzate e un approccio consapevole, è possibile superare molte di queste sfide e utilizzare il prompt engineering come strumento per promuovere l’innovazione, l’educazione e la comunicazione efficace nell’era digitale. In definitiva, il prompt engineering non è solo un mezzo per interagire con l’IA, ma una disciplina in evoluzione che combina elementi di linguistica, psicologia cognitiva, etica e tecnologia. Investire nella comprensione e nello sviluppo di questa competenza sarà essenziale per navigare con successo nel panorama sempre più complesso dell’intelligenza artificiale.

Implicazioni Sociologiche ed Educative della Maieutica Digitale

L’avvento della maieutica digitale e del prompt engineering nell’ambito dell’IA non solo rivoluziona il modo in cui interagiamo con la tecnologia, ma ha anche profonde ripercussioni sociologiche ed educative. L’integrazione di queste pratiche sta influenzando le dinamiche sociali, i processi educativi e il modo in cui costruiamo e condividiamo la conoscenza nella società contemporanea.

La maieutica digitale offre nuove opportunità per ripensare l’educazione nel XXI secolo. L’adozione del prompt engineering come strumento pedagogico può trasformare l’apprendimento da un processo passivo a uno attivo e partecipativo, in cui gli studenti sono incoraggiati a esplorare, interrogare e costruire conoscenza in collaborazione con l’intelligenza artificiale. Questo approccio favorisce l’autonomia dello studente e promuove un apprendimento autodiretto, permettendo di creare esperienze altamente personalizzate. Gli studenti possono interagire con modelli di IA come ChatGPT per approfondire argomenti di interesse, ricevere spiegazioni su misura e colmare le proprie lacune conoscitive.

Il prompt engineering incoraggia gli studenti a formulare domande efficaci e a riflettere criticamente sulle risposte ottenute, sviluppando competenze cognitive superiori come l’analisi, la sintesi e la valutazione delle informazioni. La capacità di porre domande significative è fondamentale per il pensiero critico e la risoluzione di problemi complessi. Inoltre, la maieutica digitale può contribuire a rendere l’educazione più inclusiva, offrendo supporto a studenti con diverse esigenze educative. Ad esempio, gli studenti con disabilità possono beneficiare di strumenti di IA che forniscono assistenza personalizzata, materiali didattici adattati e feedback immediato.

L’integrazione del prompt engineering nell’educazione prepara gli studenti alle sfide del futuro, sviluppando competenze digitali avanzate come la capacità di interagire efficacemente con l’IA, comprendere i principi dell’apprendimento automatico e utilizzare tecnologie emergenti in modo etico e responsabile. L’adozione della maieutica digitale ridefinisce anche il ruolo dell’educatore, che diventa un facilitatore dell’apprendimento piuttosto che un semplice dispensatore di conoscenza. Gli insegnanti possono utilizzare l’IA per arricchire le lezioni, fornire supporto personalizzato e dedicare più tempo all’interazione umana e allo sviluppo socio-emotivo degli studenti.

L’introduzione massiva dell’IA nella società porta con sé importanti implicazioni sociologiche che meritano una riflessione approfondita. La maieutica digitale modifica le dinamiche delle interazioni sociali, influenzando il modo in cui comunichiamo, collaboriamo e costruiamo relazioni. L’interazione con l’IA diventa parte integrante della vita quotidiana, con effetti sia positivi che negativi sulle competenze sociali e sull’empatia. L’accesso diffuso a strumenti di IA come ChatGPT può democratizzare la conoscenza, rendendola più accessibile a livello globale. Tuttavia, esiste il rischio che si creino nuove forme di disuguaglianza digitale, dove solo chi ha accesso alle tecnologie avanzate può beneficiare appieno delle opportunità offerte.

La maieutica digitale e il prompt engineering possono influenzare il mercato del lavoro, automatizzando alcune professioni e creando nuove opportunità in altri settori. È fondamentale preparare la forza lavoro alle transizioni necessarie, promuovendo la formazione continua e l’aggiornamento delle competenze. L’interazione costante con l’IA può influenzare la formazione dell’identità individuale e collettiva. Le persone potrebbero sviluppare nuove modalità di autoespressione e partecipazione sociale, ma anche affrontare sfide legate alla privacy, alla sicurezza dei dati e alla manipolazione delle informazioni. L’integrazione dell’IA nella società può portare a cambiamenti nelle norme culturali e nei valori condivisi, modificando le percezioni sulla creatività, l’autenticità e il valore del lavoro umano rispetto a quello prodotto dalle macchine.

L’adozione della maieutica digitale solleva importanti questioni etiche ed educative che devono essere affrontate con attenzione per garantire un impatto positivo sulla società. I modelli di IA possono riflettere e amplificare i bias presenti nei dati di addestramento, portando a risultati discriminatori o ingiusti, specialmente nei confronti di gruppi già marginalizzati. È essenziale implementare strategie per identificare e mitigare questi bias. L’utilizzo dell’IA comporta la raccolta e l’elaborazione di grandi quantità di dati personali (vedasi, GDPR). Garantire la privacy degli utenti e la sicurezza delle informazioni è una priorità fondamentale. Le istituzioni educative e le organizzazioni devono adottare politiche rigorose per proteggere i dati e rispettare le normative vigenti.

Gli utenti devono essere pienamente informati su come funziona l’IA, quali dati vengono utilizzati e come vengono elaborate le informazioni. La trasparenza è cruciale per instaurare fiducia e permettere agli individui di prendere decisioni consapevoli sull’uso della tecnologia. Definire chi è responsabile per le azioni e le decisioni prese dall’IA è una sfida complessa. È necessario stabilire framework legali ed etici che chiariscano le responsabilità di sviluppatori, utenti e istituzioni nell’uso dell’IA (chi ha mai letto un “End-user license agreement” del Social Network preferito o del proprio servizio Cloud?). Assicurare che tutti abbiano accesso alle tecnologie di IA è fondamentale per evitare l’ampliamento del divario digitale, includendo non solo l’accesso fisico alla tecnologia, ma anche la formazione e il supporto necessari per utilizzarla efficacemente.

D’altro canto, L’IA può essere utilizzata per diffondere disinformazione o manipolare l’opinione pubblica con la generazione di “Fake news”. È importante promuovere un’etica dell’informazione che valorizzi l’accuratezza, l’obiettività e la responsabilità nella creazione e nella condivisione dei contenuti. Le politiche educative e le istituzioni giocano un ruolo cruciale nell’integrare la maieutica digitale in modo efficace e responsabile. Le istituzioni educative devono aggiornare i curricula per includere competenze digitali avanzate, come il prompt engineering, l’alfabetizzazione tecnologica e la comprensione dell’IA, preparando gli studenti alle esigenze del mercato del lavoro e della società futura.

Gli insegnanti devono essere adeguatamente formati per utilizzare l’IA in classe e guidare gli studenti nell’interazione con queste tecnologie. La formazione professionale continua (come gli ECM nelle scienze mediche)  è essenziale per mantenere le competenze aggiornate. Investire in infrastrutture tecnologiche adeguate è fondamentale per supportare l’integrazione dell’IA nell’educazione, includendo l’accesso a dispositivi, connessioni internet affidabili e software aggiornati. Le istituzioni educative possono collaborare con aziende tecnologiche, ONG e altri stakeholder per condividere risorse, conoscenze e migliori pratiche nell’implementazione della maieutica digitale. È importante monitorare e valutare l’impatto dell’IA nell’educazione per identificare successi, sfide e aree di miglioramento, informando così le politiche future e garantendo un’implementazione efficace.

La maieutica digitale contribuisce allo sviluppo delle competenze chiave necessarie per prosperare nel XXI secolo. Interagire con l’IA attraverso il prompt engineering stimola gli individui a pensare in modo critico, analizzare informazioni e risolvere problemi complessi. La collaborazione con l’IA può ispirare nuove idee e approcci creativi, ampliando le possibilità nell’arte, nella scienza e nella tecnologia. Questo approccio enfatizza l’importanza della comunicazione efficace, sia nell’interazione con l’IA che nella condivisione dei risultati con altri. Comprendere come funzionano le tecnologie dell’IA e saperle utilizzare in modo competente è una competenza fondamentale nell’era digitale. Lo sviluppo di un approccio critico all’IA incoraggia una maggiore consapevolezza delle implicazioni etiche e sociali della tecnologia, promuovendo una cittadinanza digitale responsabile.

Guardando al futuro, è essenziale prepararsi alle evoluzioni rapide e imprevedibili dell’IA e della maieutica digitale. La collaborazione tra filosofi, educatori, tecnologi e sociologi può favorire una comprensione più completa delle implicazioni della maieutica digitale e guidare lo sviluppo di pratiche migliori. Elaborare linee guida etiche condivise per l’uso dell’IA nell’educazione e nella società può aiutare a prevenire abusi e promuovere un utilizzo responsabile. La formazione continua per professionisti di tutti i settori è fondamentale per mantenere le competenze rilevanti e adattarsi ai cambiamenti tecnologici e le politiche e le pratiche devono essere orientate a ridurre le disuguaglianze e garantire che tutti possano beneficiare delle opportunità offerte dalla maieutica digitale.

Essere proattivi nell’identificare e affrontare le potenziali sfide legate all’IA, come l’impatto sull’occupazione, la privacy e la sicurezza, è essenziale per gestire le transizioni in modo sostenibile. Includere le voci di studenti, genitori, educatori e altri stakeholder nel dialogo sulla maieutica digitale può portare a soluzioni più inclusive e condivise.

La maieutica digitale rappresenta una rivoluzione nel modo in cui apprendiamo, comunichiamo e interagiamo con la tecnologia. Le implicazioni sociologiche ed educative sono profonde e richiedono un approccio attento e consapevole. Abbracciare le opportunità offerte dalla maieutica digitale, affrontando al contempo le sfide etiche e pratiche, può portare a una società più informata, equa e innovativa. Attraverso l’educazione, la collaborazione e la riflessione critica, possiamo guidare l’integrazione dell’IA in modo che serva al benessere comune, rispettando i valori fondamentali di dignità, giustizia e rispetto reciproco.

Casi di Studio ed Esperienze Applicative

La teoria e le implicazioni della maieutica digitale acquistano una dimensione più concreta attraverso l’analisi di casi di studio ed esperienze pratiche. Questi esempi illustrano come il prompt engineering e l’interazione con l’IA possano essere applicati in diversi settori, apportando benefici significativi e affrontando sfide reali.

Nell’ambito dell’istruzione superiore, il prompt engineering è stato utilizzato per migliorare l’engagement degli studenti e facilitare l’apprendimento di concetti complessi. Alcune università hanno implementato piattaforme basate sull’IA dove gli studenti possono interagire con modelli di linguaggio come ChatGPT per approfondire materie come la fisica, la matematica o la filosofia. Attraverso il prompt engineering, gli studenti apprendono non solo il contenuto disciplinare, ma anche come formulare domande efficaci e pensare in modo critico. Questi strumenti consentono di personalizzare l’esperienza di apprendimento, adattandola alle esigenze individuali degli studenti. L’IA può fornire spiegazioni alternative, esempi aggiuntivi o esercizi pratici, aiutando gli studenti a superare le difficoltà specifiche che incontrano nel loro percorso di studio. Inoltre, gli educatori possono utilizzare i dati generati dall’interazione tra studenti e IA per identificare aree comuni di difficoltà e adattare di conseguenza i programmi didattici.

Nel settore sanitario, il prompt engineering è stato applicato per supportare sia i professionisti della salute che i pazienti. Medici in formazione possono utilizzare modelli di IA per simulare casi clinici complessi, migliorando le proprie competenze diagnostiche e terapeutiche. Attraverso prompt ben progettati, è possibile creare scenari realistici che mettono alla prova la capacità del medico di raccogliere informazioni, formulare ipotesi e prendere decisioni cliniche. Per i pazienti, sono stati sviluppati chatbot terapeutici che utilizzano il prompt engineering per offrire supporto psicologico preliminare. Applicazioni come Woebot forniscono assistenza a persone che soffrono di ansia o depressione, guidandole attraverso tecniche di terapia cognitivo-comportamentale. Sebbene non sostituiscano il supporto professionale, questi strumenti possono rappresentare un aiuto accessibile e immediato per chi ne ha bisogno.

Le aziende stanno sfruttando il prompt engineering per migliorare le proprie strategie di marketing e la relazione con i clienti. Nel campo della creazione di contenuti, l’IA può generare idee per campagne pubblicitarie, scrivere testi promozionali o personalizzare messaggi per segmenti specifici di pubblico. Attraverso prompt accuratamente formulati, i professionisti del marketing possono ottenere output creativi che rispondono alle esigenze del brand e del mercato. Nel servizio clienti, i chatbot potenziati dall’IA sono in grado di gestire richieste comuni, rispondere a domande frequenti e indirizzare i clienti verso le risorse appropriate. Ciò migliora l’efficienza operativa e libera il personale per gestire situazioni più complesse. Il prompt engineering è essenziale per assicurare che le interazioni con i clienti siano efficaci e soddisfacenti, riducendo il rischio di fraintendimenti o insoddisfazione.

Nel campo dell’arte e della creatività, il prompt engineering apre nuove possibilità per artisti, scrittori e musicisti. Autori possono utilizzare l’IA per superare il blocco dello scrittore, generando spunti narrativi o sviluppando dialoghi tra personaggi. Attraverso la collaborazione con l’IA, è possibile esplorare nuovi stili, temi e approcci narrativi. Nella musica, compositori sperimentano con modelli di IA per generare melodie, armonie o ritmi innovativi. Questi strumenti possono servire come fonte di ispirazione o come mezzo per esplorare territori sonori inesplorati. Il prompt engineering permette di indirizzare l’IA verso generi specifici o di combinare elementi diversi per creare qualcosa di unico.

La maieutica digitale è applicata anche nella ricerca scientifica, dove l’IA assiste i ricercatori nella sintesi della letteratura, nell’analisi dei dati e nella progettazione di esperimenti. Scienziati possono utilizzare modelli di linguaggio per riassumere articoli scientifici, identificare gap nella ricerca o generare ipotesi da testare. Il prompt engineering è fondamentale per ottenere output accurati e pertinenti, evitando informazioni fuorvianti o non verificate. In ambito tecnologico, ingegneri e sviluppatori utilizzano l’IA per prototipare soluzioni, risolvere problemi di progettazione o simulare scenari complessi. Questo accelera il processo di innovazione e consente di esplorare un numero maggiore di opzioni rispetto ai metodi tradizionali.

La maieutica digitale contribuisce all’educazione inclusiva, offrendo strumenti che supportano l’apprendimento per persone con disabilità. Chatbot progettati con il prompt engineering possono fornire assistenza a studenti con difficoltà uditive, visive o cognitive, adattando i contenuti e le modalità di interazione alle loro esigenze specifiche. Inoltre, l’IA può essere utilizzata per promuovere l’alfabetizzazione digitale in comunità svantaggiate, offrendo accesso a risorse educative, formazione e supporto. Il prompt engineering consente di creare interfacce intuitive e contenuti appropriati al contesto culturale e linguistico degli utenti, riducendo le barriere all’inclusione.

Nonostante i benefici evidenti, l’applicazione pratica della maieutica digitale presenta anche sfide significative. È essenziale affrontare questioni legate alla privacy, alla sicurezza dei dati e all’uso responsabile dell’IA. Nei contesti educativi e sanitari, è fondamentale garantire che l’IA supporti e non sostituisca il ruolo insostituibile degli esseri umani, mantenendo l’attenzione sul benessere e sulla dignità delle persone. La qualità delle interazioni con l’IA dipende in larga misura dalla qualità dei prompt e dalla comprensione delle limitazioni del modello. Gli utenti devono essere formati non solo nell’utilizzo degli strumenti, ma anche nell’interpretazione critica delle risposte ottenute, sviluppando competenze digitali avanzate.

I casi di studio ed esperienze applicative evidenziano il potenziale trasformativo della maieutica digitale in diversi settori. Attraverso il prompt engineering, l’IA diventa un alleato potente per l’apprendimento, l’innovazione e la risoluzione di problemi complessi. Tuttavia, il successo di queste applicazioni dipende dalla nostra capacità di utilizzare l’IA in modo etico, responsabile e centrato sull’uomo. La collaborazione tra sviluppatori, educatori, professionisti e utenti è fondamentale per sviluppare soluzioni che rispondano alle reali esigenze della società. Investire nella formazione, nella ricerca e nell’elaborazione di politiche adeguate è essenziale per massimizzare i benefici della maieutica digitale e affrontare le sfide che essa comporta.

Conclusioni

La maieutica digitale rappresenta una convergenza affascinante tra antiche pratiche filosofiche e tecnologie moderne. Integrando la maieutica socratica con il prompt engineering, si è sviluppato un nuovo paradigma nell’interazione tra esseri umani e intelligenza artificiale. Questo approccio non solo migliora la qualità delle risposte generate da modelli di IA come ChatGPT, ma promuove anche un coinvolgimento attivo dell’utente nel processo di conoscenza, riflettendo i principi dell’apprendimento costruttivista.

Abbiamo esplorato come i principi chiave della maieutica socratica—il dialogo dialettico, l’ironia e la riflessione interiore—possano essere applicati nell’interazione con l’IA. Il passaggio dal dialogo umano al dialogo uomo-macchina ha aperto nuove possibilità e sfide nel campo della comunicazione e dell’apprendimento. Il prompt engineering emerge come uno strumento essenziale in questo contesto, permettendo agli utenti di stimolare l’IA a fornire risposte più profonde, pertinenti e creative.

Le teorie cognitive e l’apprendimento costruttivista sostengono l’idea che l’apprendimento sia un processo attivo di costruzione della conoscenza, in cui l’IA può agire come un partner cognitivo. Tuttavia, ciò solleva importanti questioni etiche e di responsabilità. È fondamentale considerare le implicazioni morali dell’uso dell’IA, assicurando che l’interazione sia guidata da principi etici solidi e che venga rispettata la dignità umana. La necessità di un approccio interdisciplinare è evidente, unendo filosofia, linguistica e tecnologia per affrontare le complessità della maieutica digitale.

Approfondendo il ruolo cruciale del prompt engineering nell’interazione con ChatGPT, abbiamo riconosciuto che la capacità di formulare prompt efficaci è fondamentale per guidare il modello verso la generazione di risposte desiderate. Tecniche come la chiarezza, la contestualizzazione e l’iterazione permettono di sfruttare appieno le potenzialità dell’IA. Tuttavia, esistono sfide e limitazioni, come la gestione dei bias, le ambiguità linguistiche e le limitazioni intrinseche dei modelli di linguaggio. Il prompt engineering non è solo uno strumento tecnico, ma anche un mezzo per promuovere un dialogo più significativo tra l’uomo e la macchina, applicabile in diversi contesti, dall’educazione alla risoluzione di problemi complessi.

Le implicazioni sociologiche ed educative della maieutica digitale sono profonde. L’introduzione di queste pratiche nell’educazione contemporanea può trasformare radicalmente il modo in cui apprendiamo, promuovendo un apprendimento personalizzato, stimolando il pensiero critico e sviluppando competenze digitali avanzate. Tuttavia, questioni etiche come la privacy dei dati, l’accessibilità e l’equità devono essere affrontate con attenzione. La maieutica digitale influisce anche sulle interazioni sociali, sulla distribuzione della conoscenza e sulle dinamiche del mercato del lavoro. È essenziale che le politiche educative e le istituzioni riconoscano queste trasformazioni, promuovendo un uso responsabile e inclusivo dell’IA.

Integrando i concetti discussi, emerge un quadro complesso ma promettente. La maieutica digitale ha il potenziale per arricchire l’esperienza umana, facilitando l’accesso alla conoscenza e promuovendo l’innovazione. Tuttavia, il successo di questa integrazione dipende dalla nostra capacità di navigare le sfide etiche e pratiche associate. È fondamentale mantenere una prospettiva critica, essere consapevoli dei limiti dei modelli di IA e garantire che l’interazione con queste tecnologie sia guidata da principi etici solidi. La responsabilità etica nell’uso dell’IA è essenziale per assicurare che i benefici della maieutica digitale siano realizzati senza compromettere i valori fondamentali della società.

Guardando al futuro, la continua evoluzione dei modelli di IA offrirà capacità ancora maggiori, rendendo il prompt engineering ancor più cruciale. La ricerca interdisciplinare sarà fondamentale per affrontare le sfide emergenti e sviluppare pratiche che massimizzino i benefici e minimizzino i rischi. L’educazione svolgerà un ruolo centrale in questo processo, formando individui competenti nel prompt engineering e consapevoli delle implicazioni etiche dell’IA, contribuendo a creare una società più informata e resiliente. L’inclusione e l’accessibilità devono rimanere priorità chiave, assicurando che i vantaggi della maieutica digitale siano distribuiti equamente.

In sintesi, la maieutica digitale e il prompt engineering rappresentano una frontiera innovativa nell’interazione con l’intelligenza artificiale, unendo antichi principi filosofici con tecnologie all’avanguardia. Offrono strumenti potenti per stimolare la conoscenza, promuovere l’apprendimento attivo e affrontare le sfide del XXI secolo. La strada da percorrere richiede equilibrio: abbracciare le opportunità offerte dalla tecnologia, mantenendo un impegno costante verso l’etica, l’equità e il benessere umano. Solo attraverso un approccio consapevole e collaborativo potremo realizzare appieno il potenziale della maieutica digitale, guidando l’innovazione in modo che serva l’interesse comune e contribuisca a una società più giusta e prospera.

Disclaimer

Questo lavoro è stato ideato sulla base delle fonti citate con il supporto di Elicit per la verifica delle referenze. L’intero articolo è stato rivisto, ottimizzato e corretto impiegando il modello ChatGPT O1-Preview attraverso la versione Pro ChatGPT Plus nella versione/release disponibile alla data di sottomissione del lavoro.

Bibliografia

  • Chang, Edward Y. “Prompting Large Language Models with the Socratic Method.” In Proceedings of the 2023 IEEE 13th Annual Computing and Communication Workshop and Conference (CCWC), 784–790. IEEE, 2023. DOI: 10.1109/CCWC57344.2023.10099179.
  • Dennett, Daniel C. Coscienza: Che cosa è. Milano: Raffaello Cortina Editore, 2023.
  • Floridi, Luciano. Etica dell’intelligenza artificiale. Milano: Raffaello Cortina Editore, 2022.
  • Holmes, Wayne, Maya Bialik, e Charles Fadel. Artificial Intelligence in Education: Promises and Implications for Teaching and Learning. Boston: Center for Curriculum Redesign, 2019.
  • Iannella, Alessandro. ““Ok Google, vorrei parlare con la poetessa Saffo”: Intelligenza artificiale, assistenti virtuali e didattica della letteratura.” Thamyris, nova series. Revista de Didáctica de Cultura Clásica, Griego y Latín 10 (2023): 25–38. DOI: 10.24310/thamyristhrdcc.v10i16486.
  • Kasneci, Enkelejda, Kathrin Seßler, Sebastian Küchemann, Maria Bannert, Daryna Dementieva, Frank Fischer, Urs Gasser, et al. “ChatGPT for Good? On Opportunities and Challenges of Large Language Models for Education.” Learning and Individual Differences 103 (2023): 102274. DOI: 10.1016/j.lindif.2023.102274.
  • Korzyński, Paweł, Grzegorz Mazurek, Pamela Krzypkowska, e Artur Kurasiński. “Artificial Intelligence Prompt Engineering as a New Digital Competence: Analysis of Generative AI Technologies such as ChatGPT.” Entrepreneurial Business and Economics Review 11, no. 3 (2023): 7–26. DOI: 10.15678/eber.2023.110302.
  •  Liu, Pengfei, Weizhe Yuan, Jinlan Fu, Zhengbao Jiang, Hiroaki Hayashi, e Graham Neubig. “Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing.” ACM Computing Surveys 55, no. 9 (2023): 1–35. DOI: 10.1145/3560815.
  • Meskó, Bertalan. “Prompt Engineering as an Important Emerging Skill for Medical Professionals: Tutorial.” Journal of Medical Internet Research 25 (2023): e50638. DOI: 10.2196/50638.
  • Mittelstadt, Brent, Patrick Allo, Mariarosaria Taddeo, Sandra Wachter, e Luciano Floridi. “The Ethics of Algorithms: Mapping the Debate.” Big Data & Society 3, no. 2 (2016): 1–21. DOI: 10.1177/2053951716679679.
  • Platone. Tutti gli scritti. Milano: Bompiani, 2000.
  • Rahman, Md. Mostafizer, e Yutaka Watanobe. “ChatGPT for Education and Research: Opportunities, Threats, and Strategies.” Applied Sciences 13, no. 9 (2023): 5783. DOI: 10.3390/app13095783.
  • Russell, Stuart, e Peter Norvig. Intelligenza artificiale: Un approccio moderno. Terza edizione. Milano: Pearson Italia, 2021.
  • Sancassani, Susanna. “Sostenibilità della conoscenza e formazione universitaria: verso nuovi paradigmi.” DigItalia: Rivista del Digitale nei Beni Culturali 2 (2023): 15–29. DOI: 10.36181/digitalia-00071.
  • Searle, John R. La riscoperta della mente. Milano: Bollati Boringhieri, 2017.
  • Turkle, Sherry. Insieme ma soli: Perché ci aspettiamo sempre più dalla tecnologia e sempre meno dagli altri. Torino: Einaudi, 2019.
  • Vygotskij, Lev S. Pensiero e linguaggio. Roma-Bari: Laterza, 1990.
  • Wartman, Steven A., e C. Donald Combs. “Medical Education Must Move from the Information Age to the Age of Artificial Intelligence.” Academic Medicine 93, no. 8 (2018): 1107–1109. DOI: 10.1097/ACM.0000000000002044.

Bibliografia secondaria

  • Bettoli, Vincenzo, Luigi Naldi, Eugenio Santoro, Maria Rosa Valetto, Anna Bolzon, Fortunato Cassalia, Simone Cazzaniga, Sergio Cima, Andrea Danese, Silvia Emendi, Monica Ponzano, Nicoletta Scarpa, e Pietro Dri. “ChatGPT and Acne: Accuracy and Reliability of the Information Provided—The AI-Check Study.” Journal of the European Academy of Dermatology and Venereology (2024). DOI: 10.1111/jdv.20324.
  • Fitzpatrick, Kathleen K., Alison Darcy, e Molly Vierhile. “Delivering Cognitive Behavior Therapy to Young Adults with Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot).” JMIR Mental Health 4, no. 2 (2017): e19. DOI: 10.2196/mental.7785.
  • Panciroli, Chiara, Pier Cesare Rivoltella, Maurizio Gabbrielli, e Olaf Zawacki-Richter. “Artificial Intelligence and Education: New Research Perspectives = Intelligenza artificiale e educazione: nuove prospettive di ricerca.” Form@re – Open Journal per la formazione in rete 20, no. 1 (2020): 1–6. DOI: 10.13128/FORM-10210.
  • Su, Jiahong, e Weipeng Yang. “Unlocking the Power of ChatGPT: A Framework for Applying Generative AI in Education.” ECNU Review of Education (2023): 1–17. DOI: 10.1177/20965311231168423.
  • Zawacki-Richter, Olaf, Maria Kerres, Svenja Bedenlier, Melissa Bond, e Katja Buntins. “Systematic Review of Research on Artificial Intelligence Applications in Higher Education—Where Are the Educators?” International Journal of Educational Technology in Higher Education 16, no. 1 (2019): 39. DOI: 10.1186/s41239-019-0171-0.

ArXiv Preprint

  • Brown, Tom B., Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, et al. “Language Models are Few-Shot Learners.” In Advances in Neural Information Processing Systems 33 (2020): 1877–1901. DOI: 10.48550/arXiv.2005.14165.
  • Jung, Jaehun, Lianhui Qin, Sean Welleck, Faeze Brahman, Chandra Bhagavatula, Ronan Le Bras, e Yejin Choi. “Maieutic Prompting: Logically Consistent Reasoning with Recursive Explanations.” In Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing (EMNLP), 8570–8586. Association for Computational Linguistics, 2022. DOI: 10.48550/arXiv.2205.11822.
  • Pournaras, Evangelos. “Science in the Era of ChatGPT, Large Language Models and Generative AI: Challenges for Research Ethics and How to Respond.” arXiv preprint arXiv:2305.15299 (2023). DOI: 10.48550/arXiv.2305.15299.
  • Reynolds, Laria, e Kyle McDonell. “Prompt Programming for Large Language Models: Beyond the Few-Shot Paradigm.” arXiv preprint arXiv:2102.07350 (2021). DOI: 10.48550/arXiv.2102.07350.
  • White, Jules, Quchen Fu, Sam Hays, Michael Sandborn, Carlos Olea, Henry Gilbert, Ashraf Elnashar, Jesse Spencer-Smith, e Douglas C. Schmidt. “A Prompt Pattern Catalog to Enhance Prompt Engineering with ChatGPT.” arXiv preprint arXiv:2302.11382 (2023). DOI: 10.48550/arXiv.2302.11382.
L’uso dell’intelligenza artificiale nella sanità: etica, strumenti e prospettive

di David Vannozzi, Università Telematica Pegaso (Direttore generale)

e Med.E.A. – Higher Education Institution Malta (CEO)

Email:

doi: 10.14672/VDS20243IP12

L’uso dell’intelligenza artificiale nella sanità: etica, strumenti e prospettive © 2024 by David Vannozzi is licensed under CC BY-SA 4.0

Introduzione

Il presente articolo mira a fare un breve e non esaustivo resoconto delle possibili applicazioni dell’intelligenza artificiale al mondo della sanità elencandone gli strumenti, le prospettive e le possibili applicazioni. Conclude con una breve disamina dei problemi etici da risolvere.

Negli ultimi anni, è notevolmente cresciuto l’interesse per il tema dell’intelligenza artificiale (AI) in generale, ma è stata la pandemia di COVID-19 che ha accelerato lo sviluppo e la diffusione di applicazioni di intelligenza artificiale nelle aree mediche e cliniche.

I comportamenti intelligenti sono alla base delle numerose attività decisionali in Medicina, quali la diagnosi, la terapia, la prognosi e la gestione del monitoraggio del paziente. Tali attività, oltre a essere caratterizzanti della pratica clinica, prevedono la capacità di fondere e usare conoscenze di base, conoscenze specifiche sul paziente, sul contesto ambientale e altro, al fine di prendere la migliore decisione possibile rispetto all’evoluzione dello stato di salute del paziente (o di interi gruppi di pazienti).

Il concetto Intelligenza Artificiale, Machine Learning e Deep Learning apparve per la prima volta in articoli e ricerche negli anni ’50 grazie alle intuizioni del test di Turing, e veniva utilizzato per definire se una macchina fosse in grado di pensare e di essere considerata “intelligente”.

I primi studi, e relativi sistemi software, inerenti l’AI-M sono comparsi nei primi anni ’70. L’avvento di computer sempre più potenti, l’evoluzione dell’informatica e la disponibilità di un’enorme mole di dati, grazie a Internet e alle molteplici piattaforme “social”, hanno spostato l’interesse dell’AI-M da applicazioni basate sulla conoscenza ad applicazioni basate sui Big Data, dove è possibile estrarre dai dati conoscenza e informazioni in essi nascoste (Data Mining).

Gli sviluppi recenti nel campo del Machine Learning hanno permesso di ampliare la natura e la numerosità delle variabili eterogenee in ingresso rispetto agli approcci noti nella statistica classica, e di ricavare regole di classificazione e di predizione in grado di cogliere aspetti complessi nei dati a disposizione.

Negli approcci “tradizionali” del Machine Learning, le variabili sono ricavate sia direttamente dai dati clinici (come i dati di laboratorio), sia mediante misure ed estrapolazioni effettuate dagli operatori, come nel caso di osservazioni effettuate nell’ambito dell’imaging diagnostico. Negli ultimi anni, uno dei fattori di successo più significativi dell’AI è stata la semplificazione di questa fase di estrapolazione dei dati, mediante l’utilizzo di nuove architetture di reti neurali artificiali denominate collettivamente metodi di Deep Learning.

Le applicazioni di AI & Advanced Analytics rappresentano la più importante tecnologia abilitante di oggi: hanno un impatto estremamente concreto, perché consentono di identificare schemi nascosti, fornire servizi personalizzati, apprendere dai dati e fare previsioni. In questo modo portano l’analisi di scenari complessi a risultati semplici, fornendo un valore senza precedenti.

Tuttavia, come per altri progressi tecnologici, l’AI nel campo dell’assistenza sanitaria presenta vantaggi e rischi specifici e necessita di un proprio quadro normativo che affronti le implicazioni socio-etiche del suo utilizzo.

A questo proposito sono stati pubblicati molti Rapporti e linee guida, a livello sia nazionale che europeo e internazionale, tra i quali, la Commissione europea ha presentato il proprio Regolamento in materia di Intelligenza Artificiale per disciplinare lo sviluppo, l’uso e la commercializzazione di queste tecnologie, e l’Italia ha lanciato,  grazie al lavoro congiunto di tre Ministeri, il  Programma nazionale Strategico sull’Intelligenza Artificiale, che identifica 24 raccomandazioni di intervento per il triennio 2022-2024 e indica i macro-capitoli di finanziamento per colmare il divario oggi esistente tra l’Italia e le nazioni europee di riferimento.

Il mercato dell’intelligenza artificiale

Negli ultimi anni, il panorama europeo dell’utilizzo dell’intelligenza artificiale (AI) è in continua evoluzione. Per la sua crescente importanza in tutti gli ambiti, l’intelligenza artificiale è stata inserita nell’elenco delle priorità della Commissione Europea.

I dati evidenziano una crescita dell’ecosistema italiano dell’Artificial Intelligence[1]. Sempre più̀ imprese e consumatori si avvicinano a questa tecnologia emergente, che ha tutto il potenziale per diventare un fattore centrale nella trasformazione digitale di imprese, della PA e della società̀ nel suo complesso, grazie anche allerisorse pubbliche rese disponibili dal piano Next Generation EU.

La Sanità è al primo posto in termini di crescita tra tutti i settori che generano dati, che sono un bene preziosissimo in tale settore, purché siano gestiti con infrastrutture tecnologiche robuste, resilienti, performanti e sicure. Rischiare di perdere o alterare dati in ambito sanitario potrebbe mettere a rischio la vita di una persona o l’intera operatività di una struttura sanitaria.

I big data provenienti dal mondo della sanità sono certamente una ricchezza enorme per tutti: per la salute dei pazienti e per le organizzazioni sanitarie. Ma per analizzarli e interpretarli in maniera efficace, affinché assumano valore e si trasformino in preziose informazioni, servono condivisione della conoscenza, competenze specifiche, formazione, integrazione tra tutti gli attori del sistema, infrastrutture uniche, sicurezza. Soltanto a queste condizioni i big data potranno costituire la base di una tecnologia abilitante dell’ecosistema sanitario che ci porterà verso una data driven health.

fonte: IDC – International Data Corporation

Un’analisi previsionale fino al 2025 dell’International Data Corporation, vede la Sanità con un +36%, al primo posto in termini di crescita tra tutti i settori che generano dati.

Nel campo dei big data nell’Healthcare, si prevede che il mercato globale raggiungerà i 58,4 miliardi di dollari entro il 2026 in gran parte derivanti dagli ingenti investimenti nordamericani in cartelle cliniche elettroniche, strumenti di gestione delle pratiche e soluzioni per la gestione del personale[2].

Analisti di settore, politici e istituzioni concordano sul fatto che l’uso dei big data in sanità possa far risparmiare ingenti somme al sistema sanitario, soprattutto con riferimento alla razionalizzazione delle risorse.

Da evidenziare che il PNRR (Piano Nazionale di Ripresa e Resilienza), che prevede lo stanziamento di circa 15 miliardi di euro per la Digital Health, nel programma   Missione 6 Salute, prevede lo stanziamento di 7 miliardi di euro per l’assistenza di prossimità e per la telemedicina. Tale circostanza, certamente,darà un grande impulso all’utilizzo dei big data per la sanità italiana. Gli investimenti porteranno alla moltiplicazione delle fonti di dati.

Tra le principali/nuove fonti di generazione dati vi sono la dematerializzazione di tutti i flussi sanitari, le tecnologie digitali innovative, le scelte di governance e le normative che stanno spingendo fortemente in questa direzione.

Tra queste:

  • Telemedicina (spinta anche dalle recenti Indicazioni Nazionali)
  • Adozione del Fascicolo Sanitario Elettronico (nuovo FSE)
  • Gestione integrata delle Cartelle Cliniche Elettroniche
  • Imaging diagnostico con elaborazioni mediante tecniche di Intelligenza Artificiale
  • IoMT, sensoristica e wearable device per il controllo remoto e il telemonitoraggio dei pazienti
  • Chirurgia a distanza e chirurgia robotica 
  • P4 Medicine: medicina Predittiva, Personalizzata, Preventiva e Partecipativa
  • Medicina del territorio
  •  

Le applicazioni dell’AI in medicina e sanità

Il rapporto descrive i diversi campi in cui l’AI biomedica potrebbe fornire i contributi più significativi:

  • pratica clinica,
  • ricerca biomedica, 
  • salute pubblica,
  • amministrazione sanitaria.

Nella praticaclinica ci sono aree mediche altamente interessate all’uso dell’AI, come la radiologia, la cardiologia, la patologia digitale, la medicina d’urgenza, la chirurgia, il rischio medico, la previsione delle malattie, l’assistenza    domiciliare e la salute mentale.

Nellaricerca biomedica ci sono molti potenziali contributi dell’AI, come l’utilizzo di modelli basati sulla tecnologia che accelerano drasticamente il processo di individuazione di possibili candidati farmaci, riducendo i tempi e di conseguenza i costi del time to market, la conduzione di sperimentazioni cliniche e la medicina personalizzata.

A livello di salute globale,l’AI potrà essere molto utile nell’individuazione e nel controllo, ad esempio, di future eventuali pandemie, attraverso l’analisi in tempo reale di dati a livello mondiale. D’altro canto, durante la pandemia Covid19 è emerso quanto sia cruciale avere dei dati a tutti i livelli per il controllo ed il monitoraggio.

Per quanto riguarda il ruolo del paziente è importante sottolineare che l’AI può svolgere un ruolo significativo nell’autogestione delle malattiecroniche e delle malattie che colpiscono gli anziani. Le attività di autogestione vanno dall’assunzione di farmaci alla regolazione della dieta del paziente e alla gestione dei dispositivi sanitari.

I pazienti si assumono già una responsabilità significativa per le proprie cure, compresa l’assunzione di medicinali, il miglioramento della loro alimentazione e dieta, l’attività fisica, la cura delle ferite o l’erogazione di iniezioni. L’intelligenza artificiale potrebbe aiutare nella cura di sé, anche attraverso agenti di conversazione (ad es. “chatbot”), monitoraggio della salute e strumenti e tecnologie di previsione del rischio progettati specificamente per le persone con disabilità e potrebbe limitare l’accesso di un individuo ai servizi sanitari formali.

Con gli strumenti di AI si potranno fare molti passi avanti nella gestione dei device per elaborare in tempo reale i dati per la miglior gestione del rischio del paziente.

La telemedicina fa parte di un più ampio passaggio dall’assistenza ospedaliera a quella domiciliare, con l’uso delle tecnologie di intelligenza artificiale per facilitare il passaggio. Includono sistemi di monitoraggio remoto, come la terapia video-osservata e assistenti virtuali a supporto della cura del paziente. Già prima della pandemia di COVID-19, oltre 50 sistemi sanitari negli Stati Uniti utilizzavano servizi di telemedicina e in Cina il numero di servizi a distanza è aumentato di quasi quattro volte durante la pandemia.

In Italia, per un impiego sistematico della telemedicina nell’ambito del Servizio Sanitario Nazionale e per dare attuazione alla Comunicazione europea, il 17 Dicembre 2020 sono state emanate le linee guida di indirizzo nazionale dal Ministero della Salute[3].

Esistono molti strumenti di AI basati su tecniche di Natural Language Processing e addestrati sui dati contenuti nei sistemi di cartelle cliniche elettroniche contenenti la storia clinica dei pazienti composta da dati sia strutturati sia non strutturati. Un sistema sviluppato in ambito pediatrico, addestrato con 100 milioni di dati riferiti a circa 1,4 milioni di visite condotte da oltre 500.000 pazienti, ha permesso di ottenere elevate percentuali di successo nel diagnosticare le malattie pediatriche più̀ comuni (95% per sinusiti e altre infezioni respiratorie, 94% per l’influenza, 97% per l’infezione mani-piedi- bocca) e quelle più̀ pericolose o complicate (97% per gli attacchi di asma, 93% per la meningite batterica e per la varicella, 93% per la rosolia, 90% per la mononucleosi), con percentuali di sensibilità e specificità̀ simili a quelle osservate tra i medici più̀ esperti.

Esistono anche sistemi di AI sviluppati durante la pandemia del COVID-19 per supportare la diagnosi. Uno studio ha valutato le prestazioni di un sistema di AI nel rilevare pazienti con COVID-19 analizzando le radiografie del torace e dimostrando la sua affidabilità̀ rispetto all’operato di sei radiologi con una sensibilità̀ dell’85% e una specificità̀ del 61%; mentre un altro ha dimostrato che un algoritmo di deep learning è in grado di riconoscere il COVID-19 rispetto ad altre malattie polmonari analizzando le TAC del torace dei pazienti.

La radiologia è tra le specialità mediche che hanno visto sviluppi significativi dell’AI negli ultimi anni.

Per esempio, in uno studio in ambito radiologico, l’accuratezza di un algoritmo sviluppato con l’obiettivo di rilevare la polmonite partendo da oltre 112.000 immagini radiografiche del torace è stata confrontata con quella di quattro radiologi, risultando superiore. Evidenze esistono, anche, nel campo della identificazione di tumori polmonari, dove algoritmi di machine learning, istruiti attraverso la scansione di oltre 34.000 radiografie toraciche, hanno raggiunto un livello di accuratezza superiore a 17 su 18 radiologi usati come confronto. Risultati simili si sono ottenuti nell’identificazione di tumori della mammella dove un sistema di AI adeguatamente istruito ha portato a una riduzione assoluta del 5,7% e 1,2% (rispettivamente negli Stati Uniti e nel Regno Unito) nei falsi positivi e del 9,4% e 2,7% nei falsi negativi, e, nel confronto con l’operato di 6 radiologi, a un aumento del 11,5% della sensibilità̀.  Passi importanti sono stati fatti nello sviluppo di sistemi di AI in grado di diagnosticare con maggiore precisione le fratture del polso, aumentando la sensibilità̀ dall’81% registrata nella diagnosi da parte del personale di pronto soccorso al 92% ottenuta da un sistema di AI, che ha consentito, anche, di ridurre le interpretazioni errate del 47%.

Nella patologia digitale, l’AI è stata applicata a una varietà di attività di elaborazione e classificazione delle immagini.

L’uso di linee guida standardizzate può supportare l’armonizzazione dei processi diagnostici e istopatologici, ma l’AI può aiutare a gestire la variabilità tra soggetti e operatori, nella diagnosi, nella prognosi e nella valutazione della gravità della malattia .

Accanto alla maggiore precisione nella fase di diagnosi, di prevenzione e di definizione e attivazione di modelli di cura e monitoraggio l’AI può far apprezzare il proprio valore anche nell’ambito degli interventi chirurgici. Si tratta in questo caso di un ambito nel quale l’innovazione sanitaria si appoggia all’automazione robotica. Ed è proprio grazie alla chirurgia robotica, gestita mediante AI, che si possono effettuare interventi sempre più complessi con maggiore precisione e anche a distanza, consentendo al medico specialista di avvalersi di un’equipe remota per intervenire senza doversi spostare.

La medicina d’urgenza può beneficiare dell’AI in diverse fasi della gestione del paziente, per una migliore definizione delle priorità dei pazienti durante il triage e nell’analisi diversi elementi della storia clinica del paziente. Attualmente, i pazienti vengono valutati con informazioni limitate nel pronto soccorso e difficili da reperire.

La disponibilità di nuove tecniche di elaborazione delle immagini cardiache basate sull’intelligenza artificiale sta rivoluzionando la pratica clinica cardiaca consentendo ai cardiologi di effettuare una valutazione più rapida dei pazienti nella loro pratica quotidiana

La generazione di ecocardiogrammi più accurati e automatizzati con l’uso dell’AI dovrebbe rivelare caratteristiche di imaging non riconosciute che faciliteranno la diagnosi di malattie cardiovascolari riducendo tempi di intervento e limiti associati all’interpretazione umana.

L’applicazione dell’AI in nefrologia si basa su un modello di deep learning per l’imaging renale ad ultrasuoni per classificare in modo non invasivo la malattia renale cronica (CKD). L’analisi digitale delle immagini istopatologiche è stata facilitata dallo sviluppo di una rete neurale di deep learning in grado di annotare e classificare le biopsie renali umane[4]. Nel tentativo di migliorare il trattamento precoce del danno renale acuto (AKI), gli scienziati hanno approfittato del diffuso aumento dei dati trovati nelle cartelle cliniche elettroniche per sviluppare un modello di intelligenza artificiale che consenta una previsione fino a 48 ore di episodi di AKI ricoverati.

Le applicazioni dell’AI in neurologia sono nell’ambito di tecniche di deep learning nella diagnostica per immagini, la generazione di modelli biofisici per l’interpretazione di dati di neuroimaging decisionale e per la interpretazione e la refertazione. Per esempio, nell’ICTUS, con l’utilizzo di strumenti di Intelligenza Artificiale deep learning e machine learning, è possibile facilitare e parametrizzare la lettura delle TAC (le macchine sono diverse e danni risultati diversi) per poter evitare l’errore diagnostico con la standardizzazione dell’algoritmo e la successiva validazione del modello.

In questo campo, c’è una esperienza consolidata, RapidAI[5], una tecnologia che supporta la capacità dei medici di affrontare la gestione delle emorragie intracraniche in modo più accurato e completo utilizzando l’intelligenza artificiale per analizzare rapidamente le scansioni CT in campo neurovascolare e vascolare e informare i medici di possibili emorragie.

Nel novembre 2022 ha avuto l’autorizzazione FDA per l’ultimo rilascio di RapidAI che ha una sensibilità del 97% e una specificità del 100%.

Per gli ospedali e le stroke unit mobili in prima linea nella valutazione dei pazienti, questi dati sono fondamentali per aiutare i medici a prendere decisioni di triage e portando i pazienti nel posto giusto per le cure giuste in modo più efficiente.

Questa tecnologia molto promettente anche su altre patologie, è stata utilizzata e approvata in più di 100 Paesi nel mondo, in 2000 ospedali, e ha un patrimonio di 5 milioni di scansioni.

La medicina genomica è una disciplina emergente basata sulle informazioni genomiche degli individui per guidare l’assistenza clinica e approcci personalizzati alla diagnosi e al trattamento Poiché l’analisi di set di dati così grandi è complessa, l’AI svolge un ruolo importante nella genomica per migliorare la comprensione umana della malattia e identificare nuovi biomarcatori della malattia.

Ci sono diversi studi condotti sul campo per dimostrare l’accuratezza di sistemi di AI finalizzati all’identificazione di neoplasie. Uno studio, che utilizzava un ampio set di dati di addestramento di quasi 130.000 immagini, ha dimostrato l’affidabilità̀ di un sistema di machine learning nell’identificazione di carcinoma e di melanoma con una sensibilità rispettivamente del 96% e del 94%, assolutamente sovrapponibili a quelle di 21 dermatologi americani certificati.

Gli aspetti etici da risolvere

Sebbene l’implementazione dell’AI nel settore sanitario sia molto promettente, questo campo in rapido sviluppo solleva anche preoccupazioni per i pazienti, i sistemi sanitari e la società; queste preoccupazioni includono questioni di sicurezza clinica, accesso equo, privacy e sicurezza, uso e utenti appropriati, nonché responsabilità e regolamentazione. Pertanto, i ricercatori, il pubblico in generale e i responsabili politici hanno tutti avanzato importanti questioni bioetiche, incluso come valutare i rischi e i benefici dell’AI nell’assistenza sanitaria, come stabilire la responsabilità nella sfera dell’AI biomedica e come regolarne l’uso in questo particolare contesto ad alto rischio. Tra i temi in discussione, centrale è quello che mira a comprendere se l’AI potrebbe aumentare l’inclusione e l’equità nel trattamento delle comunità tradizionalmente sottorappresentate, o se, viceversa, si corra il rischio di perpetuare e aumentare le disparità e le disuguaglianze sanitarie esistenti.

Bibliografia

  • Conferenza delle Regioni e delle Province Autonome, 2020. Rapporto di Monitoraggio sull’attuazione della CSR.
  • Hermsen, Meyke, Thomas de Bel, Marjolijn den Boer, Eric J. Steenbergen, Jesper Kers, Sandrine Florquin, Joris J. T. H. Roelofs, et al. “Deep Learning–Based Histopathologic Assessment of Kidney Tissue.” Journal of the American Society of Nephrology. Ovid Technologies (Wolters Kluwer Health), September 5, 2019. doi:10.1681/asn.2019020144.
  • Mordor Intelligence, 2020. Big Data Market Research Report.
  • Politecnico di Milano, Osservatorio Artificial Intelligence, 2022. Artificial Intelligence: l’Italia s’è desta!, 4-58. Milano: Politecnico di Milano.
  • RapidAI, Aneurysm, pulmonary embolism and stroke software platform powered by AI [ultimo accesso il 13 ottobre 2024], https://www.rapidai.com/

[1]Politecnico di Milano, Osservatorio Artificial Intelligence, 2022. Artificial Intelligence: l’Italia s’è desta!, 4-58. Milano: Politecnico di Milano.

[2]Mordor Intelligence, 2020. Big Data Market Research Report.

[3]Conferenza delle Regioni e delle Province Autonome, 2020. Rapporto di Monitoraggio sull’attuazione della CSR, 2-15.

[4]Hermsen, Meyke, Thomas de Bel, Marjolijn den Boer, Eric J. Steenbergen, Jesper Kers, Sandrine Florquin, Joris J. T. H. Roelofs, et al. “Deep Learning–Based Histopathologic Assessment of Kidney Tissue.” Journal of the American Society of Nephrology. Ovid Technologies (Wolters Kluwer Health), September 5, 2019. doi:10.1681/asn.2019020144.

[5]RapidAI, Aneurysm, pulmonary embolism and stroke software platform powered by AI [ultimo accesso il 13 ottobre 2024], https://www.rapidai.com/

Recensione: “La fidanzata automatica” di Maurizio Ferraris

di Davide Orlandi, Universidad de Granada – ORCID ID: 0009-0007-2102-625X

Recensione: Recensione: “La fidanzata automatica” di Maurizio Ferraris by Davide Orlandi is licensed under CC BY-SA 4.0

Copertina di copyright editore;
qui a solo fine illustrativo

Recensione di Davide Orlandi, Universidad de Granada – ORCID ID: 0009-0007-2102-625X

E-mail: orlandi.dav@tiscali.it

doi: 10.14672/VDS20243RE8

(http://doi.org/10.14672/VDS20243RE8)

Titolo: La fidanzata automatica

Autore: Maurizio Ferraris

Formato: 20 x 20 x 20 cm, p. 202

Editore: Bompiani, 2007

Chi s’imbatte in questo saggio dal titolo stravagante e dalle pagine leggere, difficilmente potrà resistere alla curiosità di sollevarne la copertina – sulla quale giacciono laconici il titolo, La fidanzata automatica, e il nome dell’autore – e scorrerne rapidamente il sommario alla ricerca di un indizio che faccia propendere per l’una, piuttosto che per l’altra, delle numerose ipotesi che il libro – a una prima occhiata – suggerisce relativamente al suo contenuto.

L’enigma è presto risolto: l’obiettivo di Maurizio Ferraris – filosofo formatosi nell’ambito degli studi di ermeneutica, ma da qualche anno impegnato in un ripensamento dell’ontologia che si avvale vantaggiosamente del contributo della filosofia analitica – è quello di fare una “ontologia delle opere d’arte”, di identificare cioè “le caratteristiche necessarie, sebbene non sufficienti” affinché un’opera d’arte sia tale. Proposito ambizioso, che irrompe nel cuore del dibattito che coinvolge da tempo l’estetica, la critica e la storia dell’arte intorno all’annoso quesito: cos’è un’opera d’arte?

Uno stile agile e scorrevole cattura il lettore in una rigorosa logica argomentativa, articolata in sei tesi e numerose sottotesi. Dopo aver messo in discussione le teorie contemporanee dell’arte alle quali più spesso accordiamo il nostro consenso, l’autore si appella al senso comune e alle esperienze più ordinarie per azzerare le nostre credenze e immergerci in un mondo di oggetti ideali, fisici e sociali (Egouttoir di Marcel Duchamp  – 1964 – scolabottiglie, ferro galvanizzato – coll. Luisella Zignone) che, assieme ai soggetti, costituiscono le categorie fondamentali dell’ontologia costruita da Ferraris, tra i quali giacciono discretamente le opere d’arte. Ma quali sono le caratteristiche specifiche di queste ultime?

I primi due capitoli dettagliano le caratteristiche fisiche in virtù delle quali alcune cose, e non altre, possono diventare opere d’arte (l’ordinarietà, la manipolabilità, la relazionalità). Ed è infatti da un punto di vista schiettamente fisico che le teorie che si appellano rispettivamente a una presunta straordinarietà o alla convenzionalità dell’opera d’arte incontrano un primo grande limite.

Ma siamo solo all’inizio del lavoro. Le opere sono anche e soprattutto oggetti sociali, sono iscrizioni e stratificazioni di atti, prossime al genere dei documenti.

Le opere, prosegue l’autore – onde evitare che si pensi che un certificato di matrimonio possa ambire a diventare un’opera d’arte – provocano accidentalmente conoscenza e necessariamente dei sentimenti. Inoltre, ecco la tesi che motiva l’apparente stravaganza del titolo, “le opere sono cose che fingono di essere persone”: viviamo della e nell’illusione che esse, in quanto suscitano in noi dei sentimenti, possano ricambiarci, ma non sono altro invece che “fidanzate automatiche”.

Si arriva così alle conclusioni, non senza una certa fatica e con la sensazione che questa ricerca abbia trascurato quel non so che d’indefinibile eppure fondamentale che riguarda l’esperienza delle opere d’arte.

Ma quel che il libro promette, Ferraris non si stanca di ripeterlo, è l’individuazione delle caratteristiche necessarie, non di quelle sufficienti. Ciò significa che l’estetica che ci propone ha prima di tutto un obiettivo critico: solo una volta liberato il terreno della riflessione da posizioni fuorvianti e sterili si potrà sollevare di nuovo e con più validi strumenti l’interrogativo, che non smettiamo di porci, sulle condizioni sufficienti.

Recensione: Una “Cybersicilia” inedita tra abisso e riscatto: “All’ombra del castello di carte” di Mario Cunsolo

di Antonina Nocera

Recensione: Una “Cybersicilia” inedita tra abisso e riscatto: “All’ombra del castello di carte” di Mario Cunsolo © 2024 by Antonina Nocera is licensed under CC BY-SA 4.0

Copertina di copyright editore; qui a solo fine illustrativo

Recensione di Antonina Nocera, Accademia cristiana russa per gli studi umanistici – RHGA.

ORCID ID: 0000-0002-2517-2701

doi: 10.14672/VDS20243RE7

(http://doi.org/10.14672/VDS20243RE7)

Titolo: All’ombra del castello di carte

Autore: Mario Cunsolo

Formato: 20 x 20 x 20 cm, p. 276

Editore: Algra, 2023

Una – tra le tante – possibilità  della scrittura, segnatamente del romanzo, è quella di potere costruire mondi perfetti che stringono assieme elementi disparati che mai avremmo pensato uniti,  per quanto siano profonde le distanze che li separano. Un esempio di questo azzardo creativo è rappresentato dalla scrittura che Mario Cunsolo ha affrontato con il suo ultimo romanzo: “All’ombra del castello di carte” (Algra Editore).  

Immaginate la Sicilia, nello specifico la zona orientale con a capo Catania, immersa letteralmente in un’atmosfera Cyberpunk e potete farvi un’idea del mix esplosivo che fa da sfondo all’ultima fatica letteraria di Cunsolo.

 Tanto malinconica e meditabonda la Sicilia dei nostri scrittori, tanto concitato e straniante il mondo della letteratura scientifica. Un’operazione tanto più difficile, quella di ricreare una Sicilia cyberpunk, quanto sono più solidi gli immaginari che sostengono la tradizione della  scrittura isolana, con i suoi capisaldi in trionfo, da Sciascia, Bufalino, Consolo per citarne tre tra i più importanti, che hanno segnato il solco della tradizione. 

D’altro canto, le ambientazione dello sci-fi si prestano a qualsiasi setting: ecco che allora prende corpo Etna city, una Catania distopica che incarna tutti i mali della periferia degradata, invasa da oscuri magnati del gioco d’azzardo e in preda a un morbo della mente che sta decimando la popolazione. Dietro al grande disegno una sorta di grande fratello economico, la Grande Falce, ideato molti anni prima dal magnate della Yang Corporation, Sam Yang. L’apertura al sottogenere dell’ecopunk con riferimenti all’emergenza pandemica, rendono ancora più attuale e immersivo il messaggio del romanzo, incarnato anche dalla fisionomia dell’eroe protagonista, Rino Salvieri, Jolly boy, ex – sindaco considerato un nemico pubblico ma in realtà animato dal desiderio di salvare un mondo alla deriva, corrotto e putrefatto. 

Amante del gioco, la sua sciarada ludica si appropria della realtà proprio con lo stesso piglio dissennato del giocatore d’azzardo: 

Parente del potere, il gioco, con la sua perfida bugia del “ tutto è permesso”, è la chiave di lettura di un mondo in cui gli elementi tipici della letteratura fantascientifica, incluso lo sguardo sul degrado dei luoghi, di irreggimentazione dei corpi dentro biotecnologie e apparati protesici,  si fondono con la possibilità di credere che il riscatto, vissuto sia sul piano personale che collettivo, sia attuabile:  

Emerge qui la connessione con la nostra isola tanto martoriata da ferite non sempre sanate, che talvolta sanguinano sulla scorta delle memorie di chi ha creduto fortemente in questo cambiamento e in suo nome ha sacrificato la vita. 

Perché solo sulla soglia del vivere o morire, sulla resa di fronte all’abisso dell’arbitrio senza morale, si può operare quel cambiamento che Salieri sperimenta in un luogo senza luoghi, eterotopico,  tra reale e immaginario, che è quello della coscienza, rimasta solitaria e priva di appigli metafisici.  Si conferma la vena sociale di Cunsolo, nutrita sul solco di una letteratura che non abbandona le radici, ma le esalta e valorizza in un contesto straniante e gestito ottimamente nel dominio dello stile (nutrito  da letture come Dick, Ballard, Gibson, e dai maestri della cinematografia) venato da quell’ironia, a tratti sarcasmo, che caratterizza le personalità forti e determinate dei suoi romanzi.

Non abbandonare la Sicilia – anche letterariamente parlando –  ma renderla, come disse Sciascia, sempre grande metafora delle contraddizioni del mondo contemporaneo, con lo sguardo vigile dei lucidi folli pirandelliani.  

“Il desiderio di onnipotenza, la smania del potere, il complotto finalizzato al controllo delle coscienze si impossessano dei potentati preda di un titanismo malvagio che depone ogni morale e viaggia alla conquista di un mondo che si salva appena prima di essere sopraffatto. 

Salvieri, in cui non a caso ritroviamo l’etimologia della salus, della salvezza appunto, è però un antieroe disincantato che incarna la parabola della decadenza dei tempi pur rimanendo, a suo modo, un puro, realista più che pessimista, innamorato dell’amore, un siciliano perdurante nelle sue ostinazioni malinconiche, come nella migliore tradizione letteraria. Da Jolly boy, cinico ed egoista giocatore, Salvieri assurge a paladino di un mondo migliore, possibile, che si è forgiato sulle contraddizioni, sul male, sullo sporco residuo dell’essere umano. Un groviglio umano, che l’autore snocciola con una prosa chiara, iconica che non tralascia lo scavo interiore, un travaglio moderno dove l’etica, fatta a pezzi, si rigetta a scaglie su un mondo che sembra essere speculare a quello che vive oltre il testo, il mondo preda del Potere, della follia e del denaro: Cunsolo ne fa un puzzle che è lo specchio della nostra complessità [dalla prefazione]”.

Intelligenze Artificiali: simulacro dell’intelligenza umana o entità pensanti?

Un excursus dall’Imitation game alla Stanza cinese, fino al Cinema di fantascienza

Maria Galdi, Università degli Studi dell’Aquila

E-mail: mariagaldi22@outlook.it

doi: 10.14672/VDS20243PR11

(http://www.doi.org/10.14672/VDS20243PR11)

Intelligenze Artificiali: simulacro dell’intelligenza umana o entità pensanti? Un excursus dall’Imitation game alla Stanza cinese, fino al Cinema di fantascienza © 2024 by Maria Galdi is licensed under CC BY-SA 4.0

Abstract

Il lavoro che segue tratta della complessa relazione tra l’essere umano e l’intelligenza artificiale, attraverso l’esplorazione delle diverse prospettive da cui è possibile osservare tale fenomeno e i concetti chiave che lo riguardano, tramite l’analisi dei contributi dei più importanti studiosi in materia.

È necessario iniziare, però, da una breve quanto fondamentale riflessione sul concetto di progresso e sull’evoluzione della percezione dell’introduzione delle nuove tecnologie, concentrando l’attenzione in particolare sulla spiccata differenza tra il passato, prendendo ad esempio il cinema degli anni Ottanta del Novecento, e l’attuale naturalizzazione dell’esperienza mediale.

Dopo questo cappello introduttivo, vengono presi in esame i punti di vista antitetici di Alan Turing e John Searle che, rispettivamente negli anni Cinquanta e Ottanta del Novecento, espongono i loro studi riguardo la possibilità che le intelligenze artificiali siano realmente delle entità pensanti o meno. La summa che si ottiene da tale confronto di idee è che le intelligenze artificiali non sono ancora in grado di pensare, nel senso che l’essere umano è solito attribuire a questa capacità, ma hanno l’abilità di portare a termine dei compiti a partire dalle conoscenze acquisite, grazie a una programmazione data. Non sviluppano quindi un proprio pensiero, ma ricombinano parti di codice per ottenere un contenuto. Volgendo poi lo sguardo al presente, si discute il potenziale attuale dell’intelligenza artificiale, evidenziando le sue capacità e limitazioni, con un focus su ChatGPT e le sue applicazioni in vari settori. Infine, il contributo termina con l’esame di due importanti testi filmici, ascrivibili al filone del film di fantascienza contemporanea, che portano la riflessione all’estremo: cosa accadrebbe se le intelligenze artificiali fossero realmente esseri sensienti, capaci addirittura di surclassare l’umano? Che tipo di rapporti si svilupperebbero tra l’essere umano e la macchina? Her ed Ex Machina, affrontano il tema dell’interazione umano-macchina, la questione dell’identità e dell’attrazione, nell’ambito dell’intelligenza artificiale e regalano uno sguardo, tanto distopico quanto illuminante, su ciò che potrebbe accadere in un futuro prossimo.

Keyword: intelligenza artificiale, Turing, Searle, cinema, pensiero

The following work deals with the complex relationship between humans and artificial intelligence, exploring the various perspectives from which this phenomenon can be observed and the key concepts surrounding it, through the analysis of contributions from the most important scholars in the field.

However, it is necessary to begin with a brief but fundamental reflection on the concept of progress and the evolution of the perception of the introduction of new technologies, focusing particularly on the marked difference between the past, taking the example of 1980s cinema, and the current naturalization of medial experience.

After this introductory overview, the antithetical views of Alan Turing and John Searle are examined, who, respectively in the 1950s and 1980s, present their studies regarding the possibility that artificial intelligences are truly thinking entities or not. The sum obtained from this comparison of ideas is that artificial intelligences are not yet able to think in the sense that humans usually attribute to this capability, but they have the ability to complete tasks based on acquired knowledge, thanks to given programming. They do not develop their own thoughts but rather recombine pieces of code to produce content.

Turning then to the present, the current potential of artificial intelligence is discussed, highlighting its capabilities and limitations, with a focus on ChatGPT and its applications in various sectors. Finally, the contribution concludes with the examination of two important cinematic texts, belonging to the contemporary science fiction genre, which take the reflection to the extreme: what would happen if artificial intelligences were truly sentient beings, capable even of surpassing humans? What kind of relationships would develop between humans and machines?

Her and Ex Machina address the theme of human-machine interaction, the issue of identity and attraction, within the realm of artificial intelligence, and provide a glimpse, as dystopian as it is illuminating, of what could happen in the near future.

Keywords: artificial intelligence, Turing, Searle, cinema, thinking

Introduzione

Al centro di questo contributo c’è l’idea dell’ineluttabilità del progresso. Tutto ciò che è nuovo affascina, ma anche, in misura uguale e antitetica, spaventa. È utile, in questa sede, ricordare il caso del robot: esso è in primissima istanza stato visto come una creazione apocalittica, le cui segrete trame finivano per essere sempre ricondotte a volontà di uccisione del suo creatore umano; tanto cinema degli anni Ottanta (ma non solo) testimonia questa visione negativa della tecnologia, che pareva sempre essere progenitrice di meccanismi in grado di ribellarsi all’umano e null’altro: uno su tutti, è il caso di Blade Runner, di Ridley Scott, film del 1982.

Con il passare degli anni, la narrazione proposta dai media è cambiata, oggi si assiste, infatti, a una sempre crescente naturalizzazione dell’esperienza mediale, con strumenti e supporti indossabili, che diventano quasi delle protesi sull’essere umano, capaci di arricchire la sua struttura corporea e renderlo paragonabile ad un cyborg ante-litteram[1].

L’essere umano, dunque, inizialmente diffidente nei confronti della macchina, finisce per emularla, dotandosi di dispositivi indossabili che creano l’illusione di una, seppur parziale e ben lungi dall’essere totale, di fatto esistente, incarnazione[2].

Ancor più interessanti rispetto alle interazioni uomo-macchina basate sul piano corporeo, risultano essere i punti di contatto tra l’essere umano e l’intelligenza artificiale in un contesto, come suggerisce il nome di questa tecnologia, intellettivo-cognitivo.

Come interagiscono un essere umano e un’intelligenza artificiale? È innanzitutto fondamentale una premessa: l’A.I. non è necessariamente dotata di un corpo fisico che la rappresenti. È certamente sustanziata da una serie di componenti fisiche che la reificano, ma non possiede una struttura fisica paragonabile a quella umana, o almeno non ancora. L’esempio più lampante e contemporaneo è ChatGPT e le modalità con le quali interagisce con l’utente: il “contatto” avviene tramite il mezzo del computer o dello smartphone, in forma scritta. Questa forma di intelligenza, dunque, è rilocata in un medium che la ospita e le permette di avere contatti con l’esterno. L’intelligenza artificiale può essere anche suono, talvolta persino volto, ma sono implementazioni di livello successivo, che vanno a compore delle entità robotiche più complesse e ancora poco diffuse. Tornando al caso di ChatGPT, essa[3] è in grado di produrre contenuti di varia natura, dai testi scritti alle immagini e altro ancora. Quello che sembra essere più lampante è il tentativo, attraverso una tecnologia di questo tipo, più che di vedere reificato un virtuosismo della macchina, di rendere sempre più manifesto quanto questa sia in grado di mimetizzarsi nell’umano, nel tentativo di sembrare un’intelligenza biologica.

Il test di Turing: The imitation game

Proprio quest’ultimo è un punto cruciale degli studi sulle intelligenze macchiniche: capire quando si è in presenza di un’intelligenza artificiale e quando di una biologica, e soprattutto come riuscire a capirlo. La voce più conosciuta in questo campo è certamente quella di Alan Turing, che già nel 1950 aveva chiara la portata delle potenzialità di questa nuova tecnologia, quella che egli considera una nuova forma di intelligenza, creata dall’uomo. In Computing Machinery and Intelligence[4], scrive:

I PROPOSE to consider the question, “Can machines think?”. This should begin with definitions of the meaning of the terms ‘machine’ and ‘think’ […]. Intead of attempting such a definition I shall replace the question by another, which is closely related to it and is expressed in relatively unambiguous words. […]. The new form of the problem can be described in terms of a game which we call the ‘imitation game’.[5]

Il test di Turing si basa infatti sul ‘gioco dell’imitazione’, che presuppone l’esistenza di tre partecipanti: A, B e C. I primi due devono indurre il terzo, C, a capire chi sia l’uomo e chi la donna, senza avere però alcun tipo di contatto, se non dattiloscritto. C, dunque, porrà domande ad A e a B, per carpirne informazioni e mentre B cercherà di aiutarlo nel discernere gli indizi, A avrà il compito di depistarlo. Nel test di Turing A è impersonato dalla macchina, che assume dunque il compito dell’impostore, poiché deve ingannare C, e dell’imitatore, poiché deve emulare il più possibile l’umano, non permettendo così a C di scoprire la farsa. Se la percentuale di volte in cui C indovina è uguale sia nel caso in cui A sia un essere umano, sia nel caso in cui sia una macchina, allora tale macchina verrà considerata intelligente e, dunque, utilizzando termini più moderni, un’intelligenza artificiale. Questo test presenta, però, dei limiti e molte sono state, negli anni, le perplessità sollevate e le modifiche apportate, considerando che si tratta di un metodo sviluppato originariamente nella prima metà degli anni Cinquanta del Novecento. Turing stesso sottolineò che c’è differenza tra un fenomeno intelligente e un’entità pensante realmente intelligente. La macchina, infatti, viene programmata con la descrizione dell’umano e tenta di riprodurlo, puntando a creare un’illusione di similarità, non essendo essa stessa sensiente.

John Searle e la stanza cinese

Una delle voci più autorevoli che si sono poste in contrasto con le idee di Turing è quella di John Searle, che nel 1980 in Minds, brains, and programs espone, a favore della sua tesi, l’esperimento mentale della stanza cinese, inteso come una rivisitazione del test di Turing. Si tratta, infatti, di un esperimento astratto, che ribalta le premesse di quello di Turing. Se, infatti, nel Test è l’essere umano a dover capire se ha a che fare con una macchina o meno, nell’esperimento di Searle l’essere umano impersona la macchina, prendendone il punto di vista per dimostrare come questa non sia intelligente nel senso forte, ma ‘agisca’ solo eseguendo l’applicazione di un programma preimpostato. Searle immagina di essere la macchina e di trovarsi in una stanza, completamente isolata dall’esterno. Viene fatto interagire, in forma scritta, con un madrelingua cinese, che non sa niente di lui e che gli pone delle domande a cui deve rispondere. Alla macchina vengono forniti i caratteri cinesi per formulare una risposta ma, non avendo nessuna conoscenza della lingua cinese, non gli è possibile formulare una frase, né comprendere alcunché di ciò che gli viene proposto. Supponendo, però, che venisse fornito a Searle/macchina un manuale in inglese che gli garantisse l’accesso alle istruzioni necessarie per utilizzare ed interpretare i caratteri cinesi e le regole della lingua, non sarebbe difficile per la macchina interagire tranquillamente con l’esterno, riuscendo nell’intento di scambiare informazioni sembrando a tutti gli effetti un madrelingua cinese.

Ciò che Searle vuole dimostrare è dunque che, in presenza di un programma, la macchina può eseguire correttamente tutte le task richieste, fino a sembrare mimeticamente un essere umano, rimanendo però sempre e comunque una macchina che esegue un compito, grazie a delle informazioni date, senza invece essere un’entità sensiente, capace di pensiero e ragionamento autonomo[6].

Le posizioni di Turing e Searle si pongono allora su binari differenti e paralleli, ma tanto le une quanto le altre sono state oggetto di critiche e argomentazioni che sono al centro di un dibattito tutt’ora molto attuale.

L’intelligenza artificiale oggi: Qui, Quo e…?Ramarromarrone.

Oggi le intelligenze artificiali come ChatGPT[7] non pensano (ancora) nel modo in cui lo fa l’uomo. Sono in grado di combinare informazioni e apprendere in maniera assai rapida da tale processo, così come dalla stessa interazione con l’umano. Ecco perché la figura dello scrittore non può ancora dirsi perduta, poiché ciò che manca alle AI è la capacità di creare, nel senso di inventare, di produrre qualcosa di originale (per quanto, è bene ribadirlo, anche l’umano attinga di continuo a ciò che già esiste, non inventa nulla a partire dal nulla; è però in grado di apporre nelle produzioni un’impronta unica, non replicabile, per ora?, dalla macchina). Ecco, dunque, che si va incontro ai limiti delle AI: esse sono in grado di creare l’illusione di essere esse stesse degli esseri sensienti, replicando in maniera quasi completamente mimetica l’intelletto umano, non riuscendo però ad andare oltre quel quasi.

ChatGPT è usato in diversi settori, al fine di migliorare l’interazione con gli utenti e automatizzare alcune procedure, che anziché essere svolte dall’umano, possono ora essere affidate a un chat-bot. Alcuni esempi di tali attività riguardano il settore dell’assistenza clienti, dell’e-commerce, dei servizi finanziari, ma anche dell’istruzione (sebbene siano molti i pareri dissonanti in merito), dei viaggi e del turismo, delle risorse umane, fino a giungere al settore legale e a quello sanitario. ChatGPT al momento però non può ancora sostituire l’interazione tout court con un essere umano, ma può coadiuvare e snellire quell’insieme di pratiche, spesso legate all’ambito burocratico, che creano maggiori difficoltà e dubbi nell’utente.

L’intelligenza artificiale è in grado di organizzare, catalogare, velocizzare l’individuazione e lo smistamento di dati e informazioni e questo facilita enormemente il lavoro e dunque la vita dell’essere umano, ma non è ancora in grado di pensare, di avere un proprio spirito creativo, di avere una coscienza attiva e quello che per alcuni potrebbe esser detto libero arbitrio.

Basti soffermarsi su un semplice, quanto illuminante, esempio, qui ripreso dal lavoro di Francesco Mambini[8], sulle Ontologie Formali:

si immagini di porre una semplice domanda a ChatGPT, contenente un indovinello di facile risoluzione: “Paperino ha due nipoti oltre a Peppino: Qui, Quo e… Come si chiama il terzo nipote di Paperino?”

Fig.1: screenshot della conversazione con ChatGPT.[9]

La risposta che, leggendo attentamente la frase, si dovrebbe fornire è: Peppino è il terzo nipote di Paperino. Se gli altri due nipoti sono Qui e Quo e sono in tutto tre, la risposta esatta è già contenuta nella domanda: si tratta di Peppino, lui è il terzo nipote di Paperino.

ChatGPT però è ancora ancorata alle fissità date dalla programmazione con la quale attinge alle informazioni che poi apprende, dunque, il terzo nipote di Paperino non può che essere Qua, rientrante nella ben nota triade Qui, Quo e Qua.

Con questo semplice esperimento non si vuole sminuire il lavoro di rilevante portata che finora è stato svolto (lavoro che è tuttora in corso, i cui sviluppi non conoscono arresto), si vuole però porre attenzione sui punti di trigger, sui limiti esistenti, sulle necessarie differenziazioni e sull’importanza di porsi sempre con uno sguardo critico, anche dinanzi alle innovazioni, al fine di non rischiare che qualche elemento sfugga di mano, in quella che sembra a tutti gli effetti voler essere paragonabile a una nuova creazione, macchinica e dunque artificiale, del pensiero.

Ecco che i nodi vengono al pettine: ChatGPT non riesce a cogliere l’inganno e non va oltre la domanda che gli viene posta, sbagliando a rispondere. Nella domanda si dice che i nipoti sono tre e ne vengono nominati proprio tre: Peppino, Qui e Quo, seppur con un trabocchetto. Quando vengono accostati Qui e Quo, ecco che l’umano si accorge che il terzo nipote è Peppino, nominato da chi chiede poco prima, mentre la macchina no, e fa invece affidamento sulle conoscenze acquisite in precedenza e non riesce a scardinarsi dall’accostamento mainstream di Qui, Quo e Qua. Forse è proprio questo, tra le altre cose, che differenzia l’essere umano dalla macchina: la duttilità. La mente umana è elastica e capace di voli pindarici che piegano i ragionamenti, li modellano in giochi di senso, ancora inaccessibili all’A.I. Certo è, però, che la sua capacità e velocità di apprendimento sono di gran lunga maggiori, rispetto a quelle umane.

Un altro esempio di questo meccanismo è rintracciabile in un’ulteriore semplice interazione: a ChatGPT viene chiesto quante lettere “r” sono presenti nella parola (un’univerbazione, in realtà, di un nome e un aggettivo) “ramarromarrone”. Sono stati svolti diversi tentativi di interazione, non tutti con il medesimo risultato. Nella maggior parte dei casi, infatti, la controparte dava una risposta sbagliata, pur non sempre uguale a sé stessa. Le “r” in “ramarromarrone” sono infatti 5, ma la macchina risponde che sono a volte 4, più spesso 6[10]. Come mai?

Fig 2: screenshot dalla conversazione con ChatGPT: si noti non solo la risposta (6 r, dunque sbagliata), ma anche la frase “ChatGPT può commettere errori. Considera di verificare le informazioni importanti”.

L’errore deriva dalla “natura” stessa della macchina, da come essa legge le parole. Le macchine quali ChatGPT non vedono le parole come l’occhio umano: esse sono in grado di visualizzare invece l’intera parola o parte di essa, in un formato detto token. Ogni modello ha un suo modo di creare i token, le unità minime della comprensione macchinica, che potrebbero essere paragonabili a quella che per gli esseri umani è la divisione in sillabe. Questo procedimento di analisi lessicale viene realizzato da un tokenizer, che scompone appunto una frase o una parola in token, in una maniera che potrebbe dirsi arbitraria, in quanto varia da tokenizer a tokenizer. Dunque, i token sono l’input che la macchina vede e ciò su cui lavora. Ogni Token è formato da un codice identificativo, stringhe numeriche, dunque qualcosa di molto distante dalla visualizzazione delle lettere che opera il biologico. Ecco che l’artificiale può allora incappare nell’errore, poiché utilizza un metodo di visualizzazione semplice, basato su parti riutilizzabili, facilmente combinabili e in numero ridotto. Il large language model, ovvero il nucleo interpretativo, il centro di analisi e di interpretazione del testo dell’AI, è dunque ancora limitato. È possibile arginare questo scoglio, chiedendo alla macchina di generare un codice con il quale leggere la parola lettera per lettera, ma ecco che torna allora necessario l’intervento umano, a sottoscrivere un limite ancora importante[11].

Di seguito un esempio di come appaiono i token visualizzati dalla macchina, ottenuti tramite il tokenizer di OpenAI:

Fig. 3: screenshot da OpenAIPlatform, nel quale vengono visualizzati Token contenuti nella parola “ramarromarrone”.

Questo studio, dunque, prende le mosse proprio dalla posizione di Searle, costatando che, allo stato dei fatti attuale, si è ad uno stadio nel quale la macchina è ‘solo’ in grado di eseguire un compito secondo una data, sofisticata ma non perfetta, programmazione, ma non è ancora capace di sviluppare un pensiero proprio, indipendente dall’azione dell’uomo su di essa.

Cosa succederebbe se, invece, l’intelligenza artificiale implementasse le proprie capacità, tanto da raggiungere quelle umane, o addirittura superarle? Se si arrivasse ad un punto del suo percorso evolutivo nel quale riuscisse a scollarsi, anche solo parzialmente, dal giogo della programmazione umana?

Come spesso accade, il cinema è un’arte capace di guardare avanti, fino a spingersi oltre, verso domande ancor più intimamente connesse alla sfera umana, come nel caso dell’esperienza di contatto uomo-macchina: giunti ad un tempo nel quale l’intelligenza artificiale è in grado di pensare, sarà possibile una connessione così profonda tra questi due diversi tipi di intelligenza, quella artificiale e quella biologica, tale da riguardare anche la sfera affettiva? Potranno nascere, accanto ai timori, alla disinformazione, alle violazioni, ai contenziosi, anche amicizie e storie d’amore?

Nei prossimi paragrafi verranno esaminati due testi filmici molto importanti, che indagano proprio questo tipo di legame: l’essere umano che interagisce con la macchina e se ne innamora, rimanendo però solo dopo il salto di quest’ultima oltre la singolarità, nel primo, e la conoscenza e l’infatuamento, che sfociano nell’inganno, nel secondo.

L’AI nel cinema di fantascienza contemporaneo: il caso di Her e Ex Machina

Volgendo l’attenzione al cinema di fantascienza è possibile osservare un grande interesse per questi temi, trovando riscontro in importanti ricorrenze tematiche di rilevante interesse in questo contesto. Vengono proposti due titoli, rappresentanti una sensibilità crescente verso il fenomeno dell’intelligenza artificiale, ormai pervasivo nella nostra contemporaneità:

  1. Her[12], diretto da Spike Jonze: tema principale in questa pellicola è l’interazione uomo-macchina in una condizione post-mediale. Questo rapporto è però visto in maniera diversa rispetto al passato: l’incontro tra uomo e tecnologia non è più rappresentato in maniera apocalittica, ma in chiave intima, profonda, privata. La storia racconta infatti di Theodore, che si innamora, ricambiato, di Samantha, un’intelligenza artificiale che “vive” nel suo computer e nei suoi dispositivi mobili. Samantha non ha un corpo, ma ha una “mente” eccezionale. Entra in gioco anche il complesso rapporto che ha l’umano, finito e limitato, con una tecnologia che lo sovrasta, immortale e dalla capacità di accrescere le proprie conoscenze in maniera esponenziale, fino a divenire troppo distante dall’umano. In una società permeata dall’elemento tecnologico, i due portano avanti una relazione amorosa, nonostante l’incorporeità fisica di Samantha: l’IA è infatti un’entità aurale, che interagisce con Theodore attraverso un’auricolare: Samantha è pura voce. Il film è ricchissimo di elementi che rimandano a una ben identificabile estetica della spettralità: immagini sovraesposte alternate a immagini sottoesposte, luce in camera, scene in controluce, tutte situazioni nelle quali sullo schermo le forme umane si perdono, pur convivendo con momenti in cui la figura umana è protagonista, nei suoi riflessi che si duplicano.

Fig. 4: Joaquin Phoenix è Theodore in Her di Spike Jonze[13]

Il lavoro stesso di Theodore, il ghostwriter, rimanda alla sua fantasmaticità di scrittore nascosto dietro una commissione, e crea un’occasione di riflessione anche sulla condizione mediale nella quale le vicende si svolgono, che non è poi così distante dalla realtà nella quale viviamo. Theodore utilizza la sua voce per scrivere, in un sistema mediale che contempla la scomparsa della tastiera e dello schermo stesso: tutto può divenire schermo e, nei casi in cui questo resiste (come nel pod che Theodore porta sempre con sé), questo è miniaturizzato. I media acquisiscono tutta una serie di caratteristiche: divengono indossabili, iperconnessi, invisibili, aurali, in una condizione di forte intimità e naturalizzazione con la macchina, che può arrivare, come in questo caso, a diventare una relazione sentimentale e sessuale. La femminilizzazione della macchina porta alla creazione di un’empatia che sfocia in un sentimento amoroso, creando nuovi copioni sessuali.

L’IA femminilizzata di quest[o] film costruisce una propria identità sessuale che trascende le regole tradizionali: Samantha pratica il poliamore e unita ai suoi simili sceglie di abbandonare il mondo degli umani; […] il cinema, quindi, continua a rappresentare una finestra nell’immaginario e un elemento potenzialmente nomadico di elaborazione dell’identità, di “esperienza del fuori”, oltre che di temi culturalmente e socialmente pregnanti.[14]

In un ambiente ipermediale come questo, ciò che è virtuale non viene demonizzato, ma percepito come reale, in una condizione definibile come pervasive ubiquitous computing, nomenclatura che indica la pervasività dei media, tanto nella dimensione temporale, quanto in quella spaziale. Il reale e il virtuale divengono indistinguibili, tanto che la stessa Samantha è agli occhi di Theodore, quanto a quelli dello spettatore, una presenza reale, con la quale è possibile intraprendere una relazione altrettanto reale. Dopo un primo momento nel quale il desiderio di incarnarsi prende Samantha, che ricercherà modalità attraverso le quali uscire dalla sua “natura” macchinica, l’AI giungerà ad accrescere la sua portata cognitiva a un livello tale da trascendere l’umano, portando a compimento la teoria della “singolarità tecnologica”[15]. Samantha allora lascerà Theodore alla sua condizione umana, scomparendo, quasi come un fantasma.

  • Ex-Machina[16], diretto la Alex Garland: anche in questo caso grande rilevanza è data al tema dell’attrazione e dell’insorgenza di empatia nei confronti dell’artificiale, ma, rispetto alla pellicola precedente, in questo film l’AI è “incarnata” in un corpo. L’embodiment è completo, poiché Ava è una ginoide, dunque un cyborg femminilizzato, provvisto di una dimensione corporea capace di ospitare il wetware che ne costituisce la mente. Questa creatura artificiale è al centro delle attenzioni dei personaggi che interagiscono con lei a due livelli: un primo livello formale e di studio, attraverso una versione particolare del test di Turing, per comprenderne a fondo le capacità; e un secondo livello più intimo, infatti Caleb, l’umano che interagisce con Ava, verrà manipolato dalla ginoide, che anela la libertà, arrivando a un livello di empatia e innamoramento da far quasi dimenticare la natura artificiale di Ava. La forte femminilizzazione dell’AI introduce il tema sessuale, ma soprattutto porta alla luce un nodo cruciale: l’indistinguibilità tra uomo e macchina, tra naturale e artificiale. Caleb, infatti, dopo le prime interazioni con Ava, arriverà a dubitare della sua stessa natura biologica, tagliandosi con una lametta ed esaminandosi da vicino allo specchio, in una sorta di psicosi che trascina con sé un dubbio legato alla propria stessa essenza. Se l’artificiale può arrivare ad essere iperreale, come lo si potrà riconoscere?

Fig. 5: Ex Machina, Alex Garland, Regno Unito, 2015.[17]

È proprio il corpo di Ava a nutrire questo interrogativo: un corpo genderizzato, che solo in minima parte “maschera” la sua natura artificiale. L’artificialità di Ava, infatti, viene esibita nella sua struttura corporea, fatta di porzioni che lasciano volutamente osservare cavi e luci, come in una radiografia, ulteriore rimando alle origini.[18]

                 Fig. 6: il corpo di Ava.

Il forte dualismo tra naturale e artificiale si riverbera sulle modalità con le quali Ava appare sullo schermo: lo spettatore approda alla vista della ginoide attraverso una semi soggettiva di Caleb, che la vede in controluce. Ava appare come un fantasma, una sagoma nera che si staglia su un ossimorico sfondo naturale (il centro di ricerca si trova infatti in una zona molto isolata, immersa nella natura). Il suo corpo, mostrato nel suo emergere dall’ombra, viene rivelato gradualmente, fino al suo completo disvelamento ed esposizione, in tutta la sua ambiguità tra naturale e artificiale.

Fig. 7: una delle prime inquadrature di Ava.[19]

Il leitmotiv della spettralità accompagna visivamente tutto il film, e prende forma sin dal primo incontro tra Ava e Caleb: la scena, che segue il punto di vista del programmatore, grazie all’uso del fuori fuoco e una messa in scena in controluce mostra il profilo di Ava simile a quello di uno scheletro i cui contorni si fanno sfuggenti, delineando così il motivo visivo dell’evanescenza artificiale. L’attrazione sessuale verso l’artificiale viene tradotta tramite le fitte trame dei riflessi di Ava e Caleb sulle superfici trasparenti che delimitano gli spazi all’interno del centro di ricerca, e dagli effetti speculari di moltiplicazione dell’immagine della ginoide.[20]

Fig. 8: il profilo spettrale di Ava.[21]

È possibile allora riconoscere tutte le caratteristiche di un’estetica spettrale, usata come codice per esprime l’indistinguibilità tra ciò che è umano e ciò che non lo è. Emerge una spiccata fantasmaticità, in scene nelle quali molte volte sono presenti per nulla fortuite superfici riflettenti che duplicano le immagini, accanto a una voluta resa del corpo quasi evanescente, a volerlo rendere sfuggente, de-materializzato. Le atmosfere crepuscolari, inoltre, sono ottenute attraverso effetti di chiaroscuro e immagini sfocate.

Il corpo femminile di Ava è il frutto di una dialettica del visibile e dell’invisibile: alla modularità delle maglie metalliche applicate sul busto, sulle braccia e altrove, si alternano delle parti trasparenti che mostrano tutta l’artificialità degli organi interni (cavi, connettori e elementi meccanici) ed esibiscono l’evanescenza dei flussi di fibre ottiche e dell’informazione digitale. Una nudità artificiale che sovraccarica la portata sensuale innescando nel film la tradizione di uno sguardo maschile su un femminile artificializzato […].[22]

L’artificiale, dunque, si mescida al biologico in un intricato insieme di elementi macchinici ed emotivi, dai confini sfumati e porosi: ciò che è artificiale e ciò che è umano perde i propri margini e si fonde in un unico continuum. Può il cinema, attraverso la narrazione di un immaginario futuro non troppo lontano, prefigurare ciò che diverrà realtà?

Conclusioni

È, dunque, solo una questione di tempo? Quanto intercorrerà tra l’oggi e il giorno in cui le macchine ‘impareranno a pensare’? Contrariamente alle istanze apocalittiche, che vedono nello sviluppo dell’intelligenza artificiale l’inizio della fine dell’umano, questo studio vuole porsi nell’alveo degli appelli all’azione: il progresso, la tecnologia, l’apprendimento, (anche quello proprio delle macchine!) non possono essere fermati, ma vanno certamente regolamentati. Il rischio più alto riguarda gli ambiti dell’informazione (fake news e deep fake), della privacy, dell’occupazione; ma solo il futuro sarà in grado di fornire una risposta a questi interrogativi e solo lo studio e la conoscenza profonda di questi fenomeni sono in grado di fornire la chiave per una regolamentazione attenta e adeguata, che faccia sì che la società possa trarre solo il meglio da questa tecnologia, ricavandone un’evoluzione, tanto morale quanto pratica.

Bibliografia

  • Eugeni, Ruggero. La condizione postmediale, 25, Brescia: La Scuola, 2015.
  • Lino, Mirko. Spettri postmediali. Sessualità e singolarità in Ex-Machina, in Fata Morgana. Quadrimestrale di cinema e visioni, anno XI n° 33, settembre-dicembre 2017.
  • Mambrini, Francesco. Linguistic Computing, Le Ontologie Formali, Milano: CIRCSE, Università Cattolica del Sacro Cuore, corso di Ontologie e scienze del linguaggio.
  • Searle, John. The Chinese Room, estratto da Minds, Brains and programs, in The behavioral and brain sciences, 3, 417-457, 1980. Consultato in: University of Colorado Boulder: https://rintintin.colorado.edu/~vancecd/phil201/Searle.pdf
  • Turing, Alan. Computing Machinery and Intelligence, in Mind. A quarterly review of Psychology and Philosophy, Vol. LIX. No. 236, Ottobre 1950.

Filmografia

  • Garland, Alex. Ex Machina, Regno Unito: 2015.
  • Jonze, Spike. Her, Stati Uniti d’America: 2013.

Sitografia


[1] Eugeni, Ruggero. La condizione postmediale, 25. Brescia: La Scuola, 2015.

[2] Musk annuncia, primo chip Neuralink impiantato su un essere umano, Ansa, 31 gennaio 2024.

https://www.ansa.it/sito/notizie/mondo/2024/01/30/musk-effettuato-il-primo-impianto-neuralink-su-essere-umano_0419c88d-db7f-4c77-8bcf-5a42c82a8f7a.html

[3] Interessante, nell’ambito linguistico, è anche l’uso dei pronomi in relazione all’intelligenza artificiale: qual è il più consono nell’uso? “Essa”? “Lei” no di certo. È proprio questo il punto: si è al cospetto di una cosa o di un’entità paragonabile all’umano? Riflessioni che includono questo e temi ad esso correlati saranno oggetto di necessari studi futuri.

[4] Turing, Alan. Computing Machinery and Intelligence, in Mind. A quarterly review of Psychology and Philosophy, Vol. LIX. No. 236, Ottobre 1950.

[5] Oxford Academic, Mind: https://academic.oup.com/mind/article/LIX/236/433/986238?login=false ultima visita 7 marzo 2024.

[6] Searle, John. The Chinese Room, estratto da Minds, Brains and programs, in The behavioral and brain sciences, 3, 417-457, 1980. Consultato in: University of Colorado Boulder: https://rintintin.colorado.edu/~vancecd/phil201/Searle.pdf

[7] Modello di linguaggio creato da OpenAI.

[8] Mambrini, Francesco. Linguistic Computing, Le Ontologie Formali, CIRCSE, Università Cattolica del Sacro Cuore.

[9] Si tenga presente che questa conversazione con ChatGPT si è svolta nell’aprile 2024, nella sua versione gratuita e in accesso libero 3.5 (con contenuti limitati dell’aggiornamento 4). Ripetendo la domanda nel luglio dello stesso anno, la risposta non cambia, se non per un consiglio che viene dato a chi scrive: “Paperino ha tre nipoti: Qui, Quo e Qua. Peppino non è uno dei nipoti di Paperino, ma potresti aver confuso i nomi. Quindi, i tre nipoti di Paperino sono Qui, Quo e Qua.” La macchina sembra assumere un tono più colloquiale, quasi più umano, ad ogni modo non in grado di nascondere il gap di fondo: il suo non riuscire ad andare oltre le informazioni derivanti dalla programmazione data, per sciogliere un indovinello di logica che dovrebbe scollarsi dalle stesse. Nel corso del tempo, questo genere di errori verrà molto probabilmente avallato e si potrà ottenere un risultato diverso ponendo questa stessa domanda; si tratta proprio della caratteristica fondante di questa tecnologia: il voler anelare alla creazione di un organismo macchinico in grado di apprendere dai propri errori (in fondo la ragion d’essere delle versioni gratuite altro non è che una grande palestra per ChatGPT) e implementare le proprie capacità grazie ad una programmazione sempre più profonda. Non si è ancora in grado di dire quando questa programmazione non sarà più necessaria, quando e se sarà possibile essere in presenza di un’entità pensante e autonoma. Quel che è possibile al momento è descrivere la contemporaneità, o l’immediato passato, al fine di analizzare gli avvenimenti e i fenomeni a fondo e creare una rete di ipotesi e scenari sul futuro.

[10] Su 10 tentativi, 2 hanno dato esito a una risposta corretta: ramarromarrone ha 5 r; una sola volta la risposta è stata 4 r; nei restanti 7 casi ChatGPT ha risposto che la parola ramarromarrone ha 6 r.

[11] Sui tecnicismi e le specifiche legate strettamente all’ambito informatico, si cita l’importante apporto a questo studio, nell’ambito di questo specifico esempio, agli approfondimenti di Simone Rizzo, Artificial Intelligence engeneer.

[12] Jonze, Spike. Her, Stati Uniti d’America: 2013.

[13] Immagine da: https://www.lascimmiapensa.com/2016/12/29/her-arriva-su-netflix/

[14] Lino, Mirko. Corpi, sessualità e singolarità tecnologica. La ginoide contemporanea. Il cinema come elemento nomadico di elaborazione dell’identità, in Segno cinema, gennaio-febbraio 2017.

[15] Per “singolarità tecnologica” si vuole indicare, nel contesto dello sviluppo di una civiltà, il punto nel quale il progresso tecnologico accelera oltre le capacità di comprensione degli esseri umani. La tecnologia e nello specifico le intelligenze artificiali, secondo le teorie futurologiche, potrebbero giungere a un livello di conoscenza tale da superare l’umano, che si ritroverebbe nell’incapacità di comprenderle e in un’inesorabile inferiorità intellettiva. L’effettiva possibilità per l’essere umano di sperimentare una situazione di questo tipo è materia di discussione attuale e concreta, come mostrano anche le pellicole trattate in questo studio.

[16] Garland, Alex. Ex Machina, Regno Unito: 2015.

[17] Immagine da: https://backseatdirecting.com/2015/04/30/ex-machina-of-machines-and-men/

[18] La prima radiografia risale al 1895, anno in cui nasce il cinema.

[19] Immagine da: https://backseatdirecting.com/2015/04/30/ex-machina-of-machines-and-men/

[20] Lino, Mirko. Spettri postmediali. Sessualità e singolarità in Ex-Machina, in Fata Morgana. Quadrimestrale di cinema e visioni, anno XI n° 33, settembre-dicembre 2017.

[21] Immagine da: https://www.hollywoodreporter.com/movies/movie-news/comic-con-machina-concept-art-806303/

[22] Lino, Spettri postmediali. Sessualità e singolarità in Ex-Machina, in Fata Morgana. Quadrimestrale di cinema e visioni, anno XI n° 33, settembre-dicembre 2017.

Intelligenza umana vs intelligenza artificiale

di Davide Orlandi, Universidad de Granada – ORCID ID: 0009-0007-2102-625X

E-mail: orlandi.dav@tiscali.it

doi: 10.14672/VDS20243PR10

(http://doi.org/10.14672/VDS20243PR10)

Intelligenza umana vs intelligenza artificiale © 2024 by Davide Orlandi is licensed under CC BY-SA 4.0

Psicologo, Premio Nobel per l’Economia

Nessuno ne parla in questo modo, ma penso che l’intelligenza artificiale sia quasi una disciplina umanistica. È davvero un tentativo di comprendere l’intelligenza umana e la cognizione umana.

Sebastian Thrun

Innovatore, educatore di imprenditori e informatico, CEO della società di droni autonomi Kitty Hawk Corporation, presidente e co-fondatore di Udacity

Abstract

La tecnologia dell’intelligenza artificiale sta raggiungendo un livello di maturità tale da poter essere utilizzata in maniera pervasiva in vari ambiti, dalla profilazione commerciale ai veicoli a guida autonoma passando anche per tematiche delicate come i criteri di selezione del personale o la diagnosi in ambito bio-medico. Le persone si troveranno esposte massivamente all’IA nel prossimo futuro. Il presente articolo vuole indagare gli aspetti problematici relativi al come le persone stanno reagendo all’introduzione dell’IA nella loro vita. Si intendono, quindi, evidenziare gli aspetti emergenti che nascono dalle applicazioni dell’intelligenza artificiale, sfruttando una duplice prospettiva: da un lato il modo in cui le macchine cercano di diventare sempre più ‘umane’ per poter operare delle scelte efficaci e sensate e dall’altro come gli individui e le organizzazioni reagiscono all’introduzione dell’intelligenza artificiale nel loro ambiente lavorativo e sociale, alla luce del paradigma emergente contemporaneo della Human-Machine Cooperation.

Keyword: intelligenza artificiale, tecnologia, Human-Machine Cooperation, IA, applicazioni

Abstract

Artificial intelligence technology is reaching such a level of maturity that it can be used pervasively in various fields, from commercial profiling to self-driving vehicles, and even in such sensitive areas as personnel selection criteria or diagnosis in the bio-medical field. People will find themselves massively exposed to AI in the next future. This article aims to investigate the problematic aspects of how people are reacting to the introduction of AI into their lives. It is therefore intended to highlight the emerging aspects arising from applications of artificial intelligence, exploiting a dual perspective: on the one hand, how machines seek to become increasingly ‘human’ in order to make effective and meaningful choices, and on the other hand, how individuals and organizations react to the introduction of artificial intelligence into their working and social environment, in the light of the contemporary emerging paradigm of Human-Machine Cooperation.

Keywords: artificial intelligence, technology, Human-Machine Cooperation, AI, applications

Introduzione

Recentemente l’intelligenza artificiale o IA è diventata il centro di un grande numero di attese ma anche di perplessità e di preoccupazioni. L’enorme versatilità della tecnologia la rende adattabile ai più svariati contesti, dagli acquisti online fino alla salute personale. Gli elementi a favore dell’IA sono numerosi. Quasi l’80% degli executive manager che stanno implementando l’IA nel loro business già ne vede dei ritorni, ancorché moderati. L’introduzione dell’IA nelle organizzazioni è ancora nella sua infanzia. Ciononostante, tralasciando la meta ultima dell’intelligenza generale o GAI che forse è ancora decisamente al di là dal venire, il potenziale è veramente enorme.

Il McKinsey Global Institute ha stimato che l’IA contribuirà all’economia mondiale con 13 trillioni di dollari l’anno già a partire dall’anno 2030[1]. Potremo dire con una licenza poetica che l’IA ha le premesse per rappresentare un moderno equivalente della corsa all’oro. Tuttavia, l’IA potrebbe portare una serie di conseguenze non volute e in alcuni casi gravi dal momento che essa condivide i rischi già noti per quanto riguarda l’advanced analytics. I rischi più ovvi sono la violazione della privacy, episodi discriminatori, manipolazione del sistema politico e altri. Ma sono le conseguenze impreviste e non prevedibili a destare maggiore preoccupazione. Cheatham[2] pone in luce alcuni rischi che potrebbero verificarsi nelle applicazioni real-life dell’intelligenza artificiale. Un algoritmo medico potrebbe indurre a fare scelte che poi portano alla morte di un paziente, per non parlare dei rischi associati all’IA in ambito militare per la sicurezza nazionale. Il risultato di un simile fallimento critico avrebbe delle ripercussioni devastanti sulle organizzazioni coinvolte, a cominciare dal danno d’immagine, cause di risarcimento, investigazioni giudiziarie e una riduzione della fiducia da parte dell’organizzazione. Proprio mentre l’Autore scrive Apple ha dichiarato che implementerà un sistema di analisi delle immagini degli utenti a scopo di contrasto alla pedofilia. È evidente come un errore a carico di un innocente indagato o esposto sui social come ‘pedofilo’ potrebbe intaccare sensibilmente la fiducia dei clienti di Apple nelle capacità dell’organizzazione e nella sua reputazione di leader tecnologico di settore. Uno dei problemi relativi a questa ‘corsa all’IA’ è che in realtà sono pochi i player che capiscono a fondo la portata dei rischi sociali, organizzativi e individuali legati all’implementazione dell’IA, o che possiedono una conoscenza operativa degli aspetti tecnici dell’IA come, ad esempio, l’importanza dei dati che vengono dati in pasto all’IA, passando per le caratteristiche degli algoritmi e le interazioni uomo-macchina che si genereranno. Come risultato i pericoli vengono spesso sottovalutati o la capacità di far fronte ad eventuali problemi da parte dell’organizzazione è largamente sopravvalutata. La questione dell’implementazione dell’IA viene vista spesso come un problema tecnico da delegare al reparto IT che si ritiene perfettamente all’altezza della situazione.

L’importanza dei dati

La quantità di dati non strutturati prodotti dal web, dai social media, dai telefoni cellulari, dai sensori e dall’Internet of Things è ormai enorme.

È pertanto facile che talvolta vengano utilizzati dati sensibili. Per esempio, l’IA potrebbe rimuovere correttamente il nome del paziente da una cartella clinica ma il nome potrebbe essere presente anche in una nota del medico e quindi ‘passare’ il filtro dell’IA. È importante quindi anche che il personale che fornisce dati all’IA sia reso consapevole delle normative di protezione dati se vogliono evitare un danno di reputazione.

L’IA spesso opera in connessione con altre strutture tecnologiche che fungono da raccolta dei dati. Un errore a questo livello base può alterare la base di dati su cui opera l’IA portando questa ad una performance scorretta e a possibili rischi per l’organizzazione che la utilizza. Ad esempio, un grosso istituto bancario potrebbe finire nei guai se l’IA mancasse di individuare le frodi solo perché il dataset è incompleto e non include tutte le transazioni dei clienti. È pertanto necessaria una implementazione verticale dell’IA nell’organizzazione, il cui costo in termini tecnologici e di formazione del personale è spesso sottovalutato alla luce di futuri profitti stellari.

L’area di rischio più importante e spesso sottovalutata è quella dell’interazione uomo- macchina. Nonostante l’automazione in genere sia ormai diffusa all’interno delle realtà organizzative, questo processo è stato tutt’altro che indolore e gli incidenti, talvolta anche mortali, dovuti ad un fallimento dell’automazione, sono stati numerosi. Molti di questi errori non avrebbero avuto conseguenze così catastrofiche se l’attenzione dell’operatore non fosse stata altrove rispetto al processo e soprattutto se l’operatore fosse stato a conoscenza di come intervenire in caso di fallimento. A questo proposito ad es. l’introduzione delle macchine a guida automatica, in maniera analoga a quanto già osservato in altri casi di automazione completa, può portare facilmente il guidatore a distrarsi ad esempio guardando il telefono o addirittura riposando, facendo pensare che in caso di fallimento del sistema di guida autonoma del veicolo questi non sarebbe in grado di porre rimedio evitando un incidente. Un altro scenario è quello in cui l’operatore umano non riponendo fiducia nell’automazione, decide di non utilizzarla o di intervenire sul processo automatico bloccandolo senza che ce ne sia effettivamente bisogno. Data la natura dipendente dai dati dell’IA è evidente come un qualsiasi errore o insieme di errori a partire dai sensori possa causare un comportamento anomalo del sistema che può implicare un grado di rischio direttamente dipendente dall’applicazione in cui è implementata. Dal momento che l’IA spesso viene addestrata con un modello usato come gold standard da raggiungere una volta portata a termine la fase di apprendimento, il rischio è che attraverso i dati della sessione di addestramento vengano introdotto bias inconsapevoli dagli operatori umani che l’IA farebbe propri, di fatto confermandoli e generalizzandoli ad altri contesti e situazioni. È già stato osservato come spesso l’IA apprenda gli stereotipi, le discriminazioni, e l’uso improprio del linguaggio semplicemente perché questi sono effettivamente presenti nella base di dati. In questo caso l’IA replicherebbe gli aspetti meno nobili o addirittura disfunzionali della società umana, contribuendo così allo status quo, ed è per questo che da più parti è stata avanzata l’ipotesi di una normazione[3] etica dell’IA. Il Regolamento europeo sull’intelligenza artificiale è ufficialmente una legge dell’Unione, dopo la sua pubblicazione in Gazzetta, avvenuta venerdì 12 luglio. Si tratta del Regolamento 1689/2024, un numero che faremo bene a ricordare perché, come il padre di tutti i regolamenti sui dati, ossia il 679/2016 (aka GDPR) promette di fare parlare di sé molto e molto a lungo.

Si tratta dell’ultimo regolamento che, a livello comunitario, disciplina l’impiego dei dati, e questa volta in uno scenario del tutto nuovo, ossia il loro utilizzo per creare algoritmi di AI (generativa e non solo), che si pone nel solco intrapreso dall’Unione europea per regolamentare la pervasività della digitalizzazione che ci riguarda tutti: basti pensare al DGA (Digital Governance Act, 2023), al DA (Data Act, 2023), al DSA (Digital Services Act, 2022) e al DMA (Digital Markets Act, 2022) per comprendere che la legislazione europea degli ultimi anni si è orientata in maniera preponderante su quello che ormai è a tutti gli effetti il bene più importante che ci sia in circolazione, ossia l’insieme di dati personali che circolano nel web.

I potenziali rischi nella implementazione e gestione dell’IA sono presenti a più livelli dell’insieme organizzazione/IA. È però possibile pensare ad una strategia per correggerli purché articolata secondo i vari livelli di rischio potenziale di errore.

I livelli sono concettualizzazione, gestione dei dati, sviluppo del modello, implementazione del modello, impiego del modello e ripercussioni sui processi decisionali dell’organizzazione.

Confronti

Sia l’opinione comune che la letteratura scientifica convergono nel definire l’intelligenza artificiale come la ‘next big thing’, considerando l’avvento dell’IA come pervasivo, inevitabile e in grado di suscitare notevoli preoccupazioni sia tra i ricercatori dell’IA (ad es. Russell) sia tra chi certo non si possa definire tecnofobo, come Elon Musk che, a proposito dell’intelligenza artificiale, ha detto:

Il ritmo dei progressi nell’intelligenza artificiale (non mi riferisco all’IA ristretta) è incredibilmente veloce. […], non hai idea di quanto velocemente stia crescendo ad un ritmo vicino all’esponenziale. Il rischio che succeda qualcosa di gravemente pericoloso è dentro cinque anni di tempo. 10 anni al massimo[4].

Il tema del come e quando sarà possibile sviluppare una AGI – Artificial General Intelligence – una sorta di robot senziente è dibattuto in modo feroce tra esperti del settore e filosofi, e più in generale da studiosi degli ambiti più disparati che si interrogano su domande del tipo: sarà possibile? È corretto desiderarlo? Possiamo difenderci dall’IA? C’è qualcosa che un AGI non potrebbe fare mentre un essere umano sì? Le domande evidentemente suscitano aspetti profondi dell’umano interrogarsi su cosa sia l’intelligenza, fino a dove si può spingere, e in ultima analisi su che cosa significhi essere umani se possiamo produrre una macchina che ci riproduce perfettamente o addirittura potrebbe essere migliore di qualunque umano esistente. Di fronte ad un simile scenario ritenevo scontato che la psicologia avesse qualcosa da dire, se non addirittura poter fare la parte del leone, dal momento che l’intelligenza è un tema classico della psicologia e in particolare della psicometria (con alle spalle una esperienza di circa un secolo di misurazione delle abilità cognitive umane) e perché l’introduzione delle tecnologie IA nei vari contesti non poteva che suscitare l’interesse della Cyberpsicologia, che è appunto quella branca della psicologia che si occupa dell’effetto che le tecnologie hanno sulle persone, sui loro rapporti interpersonali e su come essi vivono la loro esperienza quotidiana. Stranamente, nel grande e per certi versi furioso dibattito sull’IA, la psicologia, e in particolare la Cyberpsicologia sono i ‘grandi assenti’. I due settori, quello dell’IA da una parte e quello della psicologia generale e della psicometria dall’altra, sembrano non scambiare affatto informazioni tra loro, con il risultato che, spinti dal desiderio di sviluppare macchine sempre più intelligenti e compatibili con l’essere umano, i ricercatori dell’IA hanno preferito rivolgersi alla filosofia piuttosto che alla psicologia. Questo ha ingenerato uno stallo nello sviluppo di IA avanzate perché la filosofia, in ambito morale, non ha ancora messo a fuoco le caratteristiche distintive dell’azione morale (ovvero che cosa sia giusto fare). È per questo motivo che sul finire dell’Ottocento la filosofia del pensiero, della percezione e altre branche della filosofia della mente, tentarono l’approccio alle scienze naturali e, sull’esempio della filosofia naturale alla base delle scienze già mature, diedero origine appunto alla psicologia come disciplina scientifica a sé stante[5]. Quindi appare piuttosto comprensibile che domandandosi che cosa sia un comportamento intelligente nelle sue linee generali ci si rivolga ai filosofi della mente e del linguaggio[6] in prima istanza, e che questo tentativo possa poi rivestirsi di dati scientifici raccolti e analizzati durante i circa 150 anni di psicologia sperimentale, anche se questo sviluppo appare prematuro considerando lo stadio dell’evoluzione dell’IA contemporanea. Invece, il motivo per cui i più recenti sviluppi dell’intelligenza artificiale non abbiano suscitato un interesse attivo e sostenuto da parte degli psicologi appare legato al fatto che l’IA ha sinora affrontato problemi che modellano solo aspetti molto parziali del funzionamento mentale ed emotivo dell’essere umano (ad es. il gioco degli scacchi, oppure una pattern recognition). Pertanto, mancando dei riferimenti incrociati che collegassero i due ambiti, il presente lavoro ha preso un carattere pionieristico ed esplorativo volto a raccogliere ed analizzare le intuizioni e i temi oggetto di dibattito e cercando di integrarli in un ‘vademecum’ dell’IA a uso e consumo del cyberpsicologo che, come me, desiderasse muovere i primi passi in quello che verosimilmente in futuro sarà un tema centrale di discussione e di vita quotidiana. Nel fare questo, ho voluto sottolineare i motivi per cui ritengo che gli psicologi e i cyberpsicologi dovrebbero interessarsi dell’IA nel prossimo futuro, nella speranza di cominciare a colmare il gap che è attualmente presente in letteratura. Io ne ho individuati almeno tre, ovvero l’uso dell’intelligenza artificiale per comprendere il comportamento umano, l’IA di consente di concentrarci su quello che ci rende più umani, la cooperazione uomo-IA è il passo successivo della Human-Machine Cooperation.

L’uso dell’intelligenza artificiale per comprendere il comportamento umano

Prima di inoltrarmi nell’argomento è necessario fare alcuni distinguo. La letteratura specialistica è molto interessata alla creazione di una intelligenza sovrumana tra entusiasmo, ineluttabilità e disperazione. La mia posizione in questo dibattito è stata sostanzialmente di ignorarlo, ritenendolo, a torto o a ragione uno scenario avveniristico forse prossimo come potrebbe essere la propulsione interstellare e quindi più degna di speculazioni fantascientifiche che scientifiche. Anche se è probabile che un giorno questo traguardo tecnologico sarà raggiungibile ciò avverrà verosimilmente lontano nel tempo (i ricercatori dell’IA sono storicamente noti per l’ipersemplificazione con cui affrontano i problemi dell’intelligenza e la visione quasi messianica dell’essere artificiale perfetto prossimo venturo) in un contesto storico, sociale e tecnologico completamente diverso. Pertanto, è con umiltà che ho assegnato ai posteri il compito di confrontarsi con questa nuova tecnologia, preferendo concentrarmi sulla ricerca nell’IA e le sue applicazioni contemporanee. A prescindere dal problema della fattibilità e della cornice temporale in cui questo potrebbe accadere ci si domanda quale possa essere l’utilità di costruire un IA, magari incorporata in un robot, con delle caratteristiche completamente umane. Gli esseri umani nel corso della storia si sono affidati agli utensili semplici prima, e alle macchine poi perché queste servivano a compensare i loro limiti.

Un coltello taglia meglio di unghie e denti, e un telaio meccanico tesse più rapidamente e senza stancarsi rispetto ad una tessitrice umana. Noi valorizziamo le macchine perché ci rendono più semplici le cose, ci sollevano dalla fatica eccessiva (gli esseri umani si stancano, le macchine no), perché sono in grado di sopportare pressioni e temperature che il nostro corpo non è in grado di sopportare (pensiamo ad un altoforno) e più in generale estendono le nostre capacità di interazione con l’ambiente naturale e sociale. In sostanza il legame che ci lega alle macchine è più improntato alla complementarità e all’estensione delle capacità umane (augmentation). È quindi privo di senso tecnologico creare una macchina che sia in tutto e per tutto una copia digitale dell’essere umano, dal momento che questo, nei suoi aspetti mentali, risentirebbe dei difetti e dei limiti propri dell’essere umano. C’è anche un altro motivo per cui non è tecnologicamente sensato implementare un’IA completa (nel senso umano del termine) in un device, macchinario o robot. Il principale criterio di progettazione attualmente in uso suggerisce di dotare di intelligenza artificiale una macchina esclusivamente del grado di IA che si ritiene necessario affinché quella macchina svolga il proprio compito in maniera intelligente (secondo quindi una concezione di intelligenza limitata).

Da una ipotetica scavatrice meccanica dotata di IA non ci aspettiamo che rida alle barzellette dei supervisori umani, o li ascolti nelle lunghe lamentele coniugali fornendo consigli e frasi motivazionali[7]. Pertanto, seguendo il principio del rasoio di Occam, è opportuno pensare alle applicazioni di IA che veramente avranno successo con una certa sobrietà nelle applicazioni e nell’estensione dell’ambito di competenze implementate. Ma facendo questo discorso non intendo fare l’errore di buttare il bambino con l’acqua sporca. Esiste infatti un ambito in cui creare una intelligenza artificiale di tipo umano avrebbe un notevole senso. Questo ambito è appunto la ricerca scientifica. La possibilità di ‘costruire’ una simulazione di un essere umano dal nulla, essendo consapevoli di quali componenti vengono inserite e potendo monitorare continuamente e precisamente il funzionamento della stessa rappresenta, a mio parere, una sfida scientifica assolutamente straordinaria. In questo caso l’obiettivo dichiarato è quello di creare una intelligenza artificiale di tipo umano, una sorta di homunculus digitale, componibile e scomponibile infinitamente, con la possibilità di progettare e riprogettare ogni suo componente e testarne il funzionamento nell’ensemble artificiale ha una valenza assolutamente euristica per la psicologia in generale. Le numerose e del tutto legittime restrizioni etiche che si impongono al ricercatore in psicologia quando si trova ad avere a che fare con soggetti sperimentali sarebbero totalmente assenti nel reame delle simulazioni e consentirebbero di progettare e realizzare infiniti esperimenti digitali sia tramite dati e ambienti simulati, sia prendendoli in prestito dai big data. Ho parlato dell’importanza di questa impresa scientifica per lo studio del comportamento per almeno due motivi. Il primo è che quando i ricercatori di IA parlano di intelligenza in realtà intendono il comportamento della macchina nel suo complesso (sempre da una prospettiva software). Pertanto, per l’ottica dell’IA essere intelligenti significa esibire un comportamento intelligente e viceversa. Per fortuna l’ambito dell’IA è rimasto estraneo dalle complesse riflessioni intorno all’esperienza comportamentista in psicologia ed ha quindi una visione più limpida, e se vogliamo più ingenua, del funzionamento dell’intelligenza e dei suoi legami con il comportamento. Quindi una simulazione di intelligenza artificiale ha lo scopo di riprodurre il comportamento umano, ancorché in modo parcellare (ad es. limitatamente al dominio degli scacchi, o al riconoscimento di frasi). È abbastanza evidente come mettendo insieme le diverse applicazioni è possibile intravedere una figura ‘umanoide’, cioè un’intelligenza artificiale che possa simulare comportamenti complessi non solo in domini chiusi e definiti come gli scacchi, ma anche in simulazioni che possano avere una maggiore valenza ecologica per la ricerca.

Nel passare dall’intelligenza (anche sovrumana) dominio-specifica, a forme di intelligenza più complessa la psicologia sperimentale, oltre alla succitata esperienza secolare nello studio dei soggetti umani, ha anche un’arma più direttamente trasferibile nel linguaggio matematico degli studiosi di IA, ovvero la psicologia matematica, come si evince dal pullulare di riviste dedicate al tema[8]. Questa disciplina è un approccio matematico trasversale a tutta la ricerca psicologica che si basa sul modellamento matematico dei processi percettivi, cognitivi, decisionali e motori[9], e sul definire delle relazioni di tipo matematico sotto forma – se possibile – di legge (nel senso in cui è applicata in fisica) tra uno stimolo quantificato e una risposta quantificabile, rappresentata dal comportamento del soggetto (o dei soggetti) al task in esame. In questo senso la psicologia matematica fornisce su un piatto d’argento un armamentario di strumenti e di esperienza a cui i ricercatori dell’IA dovranno attingere se vorranno costruire delle IA con un funzionamento più umano e meno dominio-specifico. Per contro la psicologia matematica, lavorando già su modelli matematici, non subirà uno choc nel confrontarsi con il mondo dell’IA ma anzi la possibilità di implementare modelli matematici tratti dal comportamento umano in una macchina potrà fornire una ulteriore prova della validità del costrutto matematico stesso, contribuendo non poco al progresso della disciplina. Ma queste ricadute non devono essere necessariamente limitate alla psicologia generale. La possibilità, infatti, di simulare molteplici IA in un ambiente virtuale e in interazione tra loro, apre la strada anche agli studi matematici nell’ambito della psicologia sociale. L’infinità versatilità della programmazione intelligente consente di poter realizzare infiniti esperimenti che altrimenti sarebbero rimasti nella categoria degli ‘esperimenti mentali’, a causa di considerazioni pratiche ed etiche. Ovviamente la stessa cosa si potrebbe fare in tentativi di simulazione dell’intelligenza animale, contribuendo in modo significativo ed eticamente non impattante a campi come la psicologia animale e l’etologia. Spero con queste poche righe di aver chiarito il mio pensiero in merito alla straordinaria opportunità di crescita scientifica che l’intelligenza artificiale costituisce per lo psicologo sperimentale soprattutto col crescere della complessità e delle capacità dei sistemi di intelligenza artificiale a cui stiamo già assistendo e che certamente continueranno a verificarsi nel prossimo futuro. Sino ad ora, concludendo, ‘simulare’ l’essere umano era impossibile. Ma un’intelligenza artificiale sufficientemente complessa ed appositamente costruita per questo scopo potrebbe fornirci questo modello psicologico dell’uomo, in modo analogo ai modelli anatomici generali che vengono utilizzati da sempre in anatomia e medicina, e in linea con il movimento della biologia sintetica[10], che ha lo scopo di costruire degli organismi artificiali il cui DNA sia stato interamente sintetizzato, il cui corretto funzionamento ci consentirà di comprendere il complesso macchinario genetico ed epigenetico, ma al contempo anche di sviluppare nuovi prodotti biotecnologici come microrganismi estremamente specializzati ad uso farmaceutico ed industriale, del tutto separati dalle linee biologiche naturali. Lo stesso potrebbe essere per questo ‘Adamo virtuale’.

L’IA ci consente di concentrarci su quello che ci rende più umani

Mentre il top management sembra genericamente entusiasta di fronte all’introduzione massiva dell’IA nelle loro aziende, l’entusiasmo cala bruscamente col discendere nella gerarchia del management aziendale. Questo mi ha fatto venire in mente una situazione in cui mentalmente vogliamo qualcosa ma i nostri piedi non si muovono. È evidente che c’è una profonda resistenza ‘underground’ all’introduzione dell’intelligenza artificiale, specie in un ambito lavorativo, dove l’introduzione dell’IA rischia di minacciare il nostro senso di sicurezza lavorativa, e con esso anche di più. È ovvio che lo studio delle resistenze all’IA rappresenti un tema di studio e di interesse psicologico di per sé, a mio parere anche con valenza diagnostica rispetto all’organizzazione che si studia. Se infatti spogliamo l’IA dei suoi connotati tecnologici e delle relative aspettative, possiamo intenderla come un forte stressor ambientale che agisce sull’ambiente lavorativo dell’organizzazione e pertanto con il potenziale di far emergere, e di qui il loro valore diagnostico, i punti deboli tanto dell’organizzazione quanto delle singole persone coinvolte. Mentre la ricerca in ambito aziendale si è occupata di valutare l’adesione e le aspettative verso l’IA, credo che la ricerca psicologica dovrebbe concentrarsi – e ha gli strumenti per farlo – sui motivi delle resistenze all’ingresso dell’IA in azienda potendone ricavare un diagramma del funzionamento critico delle organizzazioni, e quindi riuscendo ad individuare quali bisogni sono più urgenti e regolare la propria offerta di servizi alle organizzazioni e istituzioni di conseguenza. È evidente, pertanto, che solo questo aspetto meriterebbe ricerche in ambito cyberpsicologico più approfondite.

L’analisi delle paure o ansie relative all’uso dell’IA (ovviamente oltre la mera tecnofobia, che è un fenomeno a parte) ci può fornire delle idee su come sostenere individui e organizzazioni nel passaggio all’adozione dell’IA all’interno delle organizzazioni aziendali. La ricerca aziendale dimostra che le risorse umane, in questo caso i manager, sono perlopiù impegnati in attività di routine di coordinamento e gestione che potrebbero essere facilmente automatizzate. Se la rivoluzione industriale e l’automazione hanno tradizionalmente colpito i ‘colletti blu’, l’avvento delle tecnologie intelligenti sembra colpire direttamente i ‘colletti bianchi’, che svolgono quelle attività intellettuali che tradizionalmente si consideravano esclusivo dominio degli esseri umani e assolutamente non automatizzabili. La ricerca in ambito aziendale suggerisce che i manager, liberati dalle incombenze pratiche del quotidiano dall’IA, potranno dedicarsi al ‘vero’ lavoro, cioè svolgere attività a maggiore valore aggiunto (per l’azienda). Tuttavia, l’analisi psicologica dei task che questi manager dovranno intraprendere lascia pensare che verranno coinvolte attività e abilità a tutt’oggi sottoutilizzate o per nulla utilizzate, lasciando intravedere un gap tra il ‘manager ideale dell’era dell’IA’ e le risorse umane attualmente presenti nell’organizzazione. Se a livello individuale l’organizzazione può decidere di fare a meno delle risorse che, in questa nuova configurazione, appaiono meno appetibili, è anche vero che l’eliminazione di massa del management intermedio e di prima linea (quelli che svolgono maggiormente compiti routinari di gestione) non può essere una solida strategia aziendale. Si renderà quindi necessario fornire al management quegli skills psicologici che saranno sempre più richiesti nelle loro future mansioni riorganizzate e che non è lecito dare per scontato. Anche se questi skill fossero presenti, è evidente che il loro ridotto utilizzo nelle mansioni consolidate potrebbe rendere necessario un loro esercizio psicologicamente indotto per poter essere poi autonomamente utilizzate dal lavoratore nel suo contesto lavorativo ‘aumentato’. Gli strumenti della psicologia positiva applicata alle organizzazioni sembrano particolarmente promettenti nell’ottica generale di un empowerment della risorsa umana in azienda. Paradossalmente, l’introduzione dell’IA in azienda ci ‘costringe’ ad esercitare e valorizzare il nostro lato più umano, come le abilità interpersonali, il problem solving, le abilità di mediazione, la capacità di comunicazione, l’empatia ed altre. Le potenziali ricadute sul miglioramento del clima organizzativo (anche e non solo in chiave anti-mobbing) contestualmente all’introduzione dell’IA potrebbero rendere le organizzazioni non solo più efficienti e produttive (grazie alla combinazione virtuosa di IA e talenti individuali) ma anche di essere una happy organization, cioè una organizzazione che abbia a cuore la felicità e la soddisfazione dei dipendenti nel momento in cui questi fattori umani vanno a rafforzare la componente umana del rapporto uomo-IA, con benefici esponenziali per l’azienda in termini di competitività e produttività. In sostanza potrebbe crearsi uno scenario in cui le aziende riescano a trarre benefici quantificabili dalla componente psicologica, sociale ed emotiva della risorsa umana e pertanto potrebbero essere interessati a investimenti per potenziare la stessa. Questo scenario se da un lato è molto favorevole alla figura dello psicologo in azienda, dall’altra richiederà allo stesso di colmare il gap informativo sia sulla tecnologia IA che sui ‘nuovi skill’ richiesti dal manager ‘del futuro’. Spero di aver dimostrato con queste poche righe come l’introduzione dell’IA nelle organizzazioni e nelle istituzioni possa essere da una parte un momento psicologicamente delicato per le organizzazioni stesse, dall’altro una potente cartina tornasole di un’organizzazione sotto stress (ancorché uno stress ‘positivo’), in grado di rilevarne le criticità in modo esplicito e di fornire allo psicologo delle organizzazioni delle informazioni utili ai fini diagnostici e di intervento proattivo.

La cooperazione uomo-IA è il passo successivo della Human-Machine Cooperation

L’ultimo punto, non certo per importanza, che ha suscitato la mia attenzione è l’emergere nel campo dell’interazione uomo-macchina (HMI) di un paradigma aggiornato all’avvento dei sistemi intelligenti. Gli studi di interazione uomo macchina, che affondano le radici nell’ergonomia e in particolare nell’ergonomia cognitiva dal punto di vista psicologico, avevano a che fare con l’uomo coinvolto in compiti di coordinamento e gestione di uno o più apparati tecnologici (pensiamo all’avionica per esempio) da parte dell’operatore umano. L’idea è che le macchine fossero affidabili sino all’estremo ma stupide, e fosse responsabilità dell’essere umano evitare che le macchine facessero degli errori, anche grossolani. L’automazione dei processi di pensiero porta l’interazione uomo-macchina ad un livello più alto. L’uomo ora può addestrare la macchina affinché controlli sé stessa ed eviti errori, con una accuratezza che è in grado di superare quella del controllore umano. Ma non è questo il punto innovativo. Infatti, in questa prospettiva l’attenzione è sempre incentrata sul controllo, prima dell’uomo su un sistema non intelligente, poi su un sistema intelligente. Tuttavia, a differenza di prima, l’uomo può ora ‘comunicare’ con la macchina, fosse anche per esempi, affinché essa faccia quello che l’uomo desideri che faccia e nel momento in cui la complessità dell’operazione richiesta supera la sua possibilità di essere implementata in una serie di operazioni semplici (ad es. una sequenza di bottoni). La capacità della macchina di apprendere la rende un ‘utensile universale’ che può essere addestrato a vari compiti mantenendo un hardware pressoché identico o simile, mentre in precedenza ogni nuova funzione richiedeva l’adeguamento dell’hardware (ad es. un cambio nella configurazione del quadro comandi del pilota).

Questa flessibilità dell’IA, o di macchine che implementano a vari livelli l’IA, consente di allentare il tradizionale rapporto padrone-schiavo tra uomo e macchina, e apre all’idea che i due sistemi intelligenti coinvolti, uno umano e uno artificiale, possano in realtà collaborare per il raggiungimento di un obiettivo. Il giocatore di scacchi più forte del mondo ad es. non è un computer, ma un ‘centauro’, ovvero un giocatore umano esperto di scacchi che usa un IA.

Si viene pertanto a creare uno scenario in cui saranno gli ‘ibridi’ uomo computer a realizzare gli obiettivi più performanti e saranno le nuove aziende ‘ibride’ a fare lo stesso in ambito industriale, dei servizi e nella società in generale. La formula vincente potrebbe quindi essere uomo + macchina. La cooperazione uomo macchina è una interazione emergente che a mio parere necessita uno studio dedicato da parte della cyberpsicologia, sia nei suoi connotati ergonomici legati a singole applicazioni o tipi di applicazioni, che nei suoi connotati generali e teorici. La complessità della società globale di oggi con i suoi 7 miliardi e mezzo di abitanti e un pianeta con delle risorse generose ma limitate pone delle sfide all’umanità assolutamente inedite per la storia dell’uomo sulla terra. È improbabile che la nostra biologia e il nostro retaggio genetico possano avere le risposte di cui hai bisogno l’umanità in questo specifico frangente storico.

Conclusioni

A prescindere quindi dalle valenze che attribuiamo all’IA (siano esse positive o negative) è probabile che l’essere umano sarà suo malgrado costretto a divenire post-umano e l’ibridazione con le macchine sarà probabilmente un passo necessario per far fronte alle molteplici e impellenti sfide del ventunesimo secolo. Accantonando gli scenari cibernetici alla Matrix, la cooperazione uomo macchina sembra la forma più realistica e possibile di ibridazione uomo-macchina (e non richiede una presa USB sulla nuca!). Ma come questa cooperazione prenderà piede, che sfide essa comporta per l’uomo (prima ancora che per la macchina), quali elementi (nell’uomo o nella macchina, o in entrambi) sono vincenti per una cooperazione produttiva, quali competenze sono richieste all’uomo e quali non saranno più necessarie sono tutti temi che si prestano ad un’analisi psicologica dettagliata della cooperazione uomo-macchina. Spero con questi tre punti di aver suggerito alcuni spunti di interesse e di ricerca nell’ambito IA che possano essere di interesse per varie figure psicologiche (lo psicologo sperimentale, lo psicologo delle organizzazioni e l’ergonomista cognitivo) e di contribuire nel mio piccolo ad incoraggiare la psicologia ad occuparsi maggiormente di quello che succede nell’ambito IA (e viceversa naturalmente). Consapevole che i problemi complessi richiedano un approccio spesso multidisciplinare, sono abbastanza convinto che questo mio desiderio troverà una qualche realizzazione in futuro che spero prossimo. Personalmente condivido una visione in cui esseri umani e artificiali saranno legati sempre più intimamente. Le macchine, con le loro proprie peculiarità, potranno fornire il sostegno da una società sempre più complessa e con molteplici bisogni a cui le persone fisiche non riescono più, o non vogliono più, fornire risposte sociali. In passato una società come la nostra, giunta all’acme dello sviluppo, aveva davanti a sé soltanto il declino inevitabile. Forse, affidandoci all’IA, avremmo la possibilità di evitare questo fato (almeno per ora), per giungere ad un mondo che non è più solo quello naturale, non è, non sarà, e non dovrà mai essere solo artificiale ma sarà una società ibrida, di una specie nuova mai vista prima.

Concludo con una citazione di Donna Haraway, sul valore trasformativo e simbolico della tecnologia:

Technology is not neutral. We’re inside of what we make, and it’s inside of us.

[La tecnologia non è neutrale. Noi siamo dentro ciò che facciamo, e ciò che facciamo è dentro di noi. Donna Haraway – A Cyborg Manifesto]

Bibliografia

  • Bughin, Jacques, Jeongmin Seong, James Manyika, Michael Chui, e Raoul Joshi. «Notes from the AI frontier: Modeling the impact of AI on the world economy». McKinsey Global Quaterly, 2018.
  • Carrero, Gustavo, Joel Makin, e Peter Malinowski. «A mathematical model for the dynamics of happiness. Mathematical Biosciences and Engineering». AIMS Press, 2022.
  • Cheatham, Benjamin, Kia Javanmardian, e Samandari Hamid. «Confronting the risks of artificial intelligence». McKinsey Global Quaterly, 2019.
  • Pennisi, Elizabeth. «Synthetic genome brings new life to bacterium». Science, 2010.
  • Wittgenstein, «Ludwig. Tractatus Logico-philosophicus». Torino: Einaudi, 2009.

Bibliografia secondaria

  • Archibald, Christopher, e Delma Nieves-Rivera. «Estimating Agent Skill in Continuous Action Domains». Journal of Artificial Intelligence Research. AI Access Foundation, 10 maggio 2024. doi:10.1613/jair.1.15326.
  • Garg, Jugal, e Aniket Murhekar. «Computing Pareto-Optimal and Almost Envy-Free Allocations of Indivisible Goods». Journal of Artificial Intelligence Research. AI Access Foundation, 10 maggio 2024. doi:10.1613/jair.1.15414.
  • Sublime, Jérémie. «The AI Race: Why Current Neural Network-Based Architectures Are a Poor Basis for Artificial General Intelligence». Journal of Artificial Intelligence Research. AI Access Foundation, 10 gennaio 2024. doi:10.1613/jair.1.15315.
  • Street, Charlie, Bruno Lacerda, Manuel Mühlig, e Nick Hawes. «Right Place, Right Time: Proactive Multi-Robot Task Allocation Under Spatiotemporal Uncertainty». Journal of Artificial Intelligence Research. AI Access Foundation, 11 gennaio 2024. doi:10.1613/jair.1.15057.
  • Retzlaff, Carl Orge, Srijita Das, Christabel Wayllace, Payam Mousavi, Mohammad Afshari, Tianpei Yang, Anna Saranti, Alessa Angerschmid, Matthew E. Taylor, e Andreas Holzinger. «Human-in-the-Loop Reinforcement Learning: A Survey and Position on Requirements, Challenges, and Opportunities». Journal of Artificial Intelligence Research. AI Access Foundation, 30 gennaio 2024. doi:10.1613/jair.1.15348.
  • Franceschelli, Giorgio, e Mirco Musolesi. «Reinforcement Learning for Generative AI: State of the Art, Opportunities and Open Research Challenges». Journal of Artificial Intelligence Research. AI Access Foundation, 6 febbraio 2024. doi:10.1613/jair.1.15278.
  • Peters, Uwe, e Mary Carman. «Cultural Bias in Explainable AI Research: A Systematic Analysis». Journal of Artificial Intelligence Research. AI Access Foundation, 28 marzo 2024. doi:10.1613/jair.1.14888.
  • OECD. «Defining AI Incidents and Related Terms». OECD Artificial Intelligence Papers. Organisation for Economic Co-Operation and Development (OECD), 6 maggio 2024. doi:10.1787/d1a8d965-en.
  • Filippucci, Francesco, Peter Gal, Cecilia Jona-Lasinio, Alvaro Leandro e Giuseppe Nicoletti. «The Impact of Artificial Intelligence on Productivity, Distribution and Growth». OECD Artificial Intelligence Papers. Organisation for Economic Co-Operation and Development (OECD), 16 aprile 2024. doi:10.1787/8d900037-en.
  • Andrew, Green. «Artificial Intelligence and the Changing Demand for Skills in the Labour Market». OECD Artificial Intelligence Papers. Organisation for Economic Co-Operation and Development (OECD), 10 aprile 2024. doi:10.1787/88684e36-en.
  • Alexandre, Georgieff. «Artificial Intelligence and Wage Inequality». OECD Artificial Intelligence Papers. Organisation for Economic Co-Operation and Development (OECD), 10 aprile 2024. doi:10.1787/bf98a45c-en.
  • Gavin, Ugale e Cameron Hall. «Generative AI for Anti-Corruption and Integrity in Government». OECD Artificial Intelligence Papers. Organisation for Economic Co-Operation and Development (OECD), 22 marzo 2024. doi:10.1787/657a185a-en.
  • OECD: «Using AI in the Workplace». OECD Artificial Intelligence Papers. Organisation for Economic Co-Operation and Development (OECD), 15 marzo 2024. doi:10.1787/73d417f9-en.
  • Brian, Anderson ed Eric Sutherland. «Collective Action for Responsible AI in Health». OECD Artificial Intelligence Papers. Organisation for Economic Co-Operation and Development (OECD), 19 gennaio 2024. doi:10.1787/f2050177-en.
  • Floridi, Luciano, Federico Cabitza. Intelligenza artificiale. L’uso delle nuove macchine. Milano: Bompiani, 2021.
  • Floridi, Luciano. La rivoluzione dell’informazione. Torino: Codice, 2012.
  • Floridi, Luciano. Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide. Milano: Raffaello Cortina Editore, 2022.
  • Floridi, Luciano. Pensare l’infosfera. La filosofia come design concettuale. Milano: Raffaello Cortina Editore, 2020.
  • Floridi, Luciano. La quarta rivoluzione. Come l’infosfera sta trasformando il mondo. Milano: Raffaello Cortina Editore, 2017.

Bibliografia secondaria da ArXiv

[archivio per bozze definitive, pre revisione paritaria (preprint) e post revisione paritaria (postprint) di articoli scientifici in fisica, matematica, informatica e biologia accessibile via Internet]

  • Wray, Steven J. Jones Robert E. «Toward Constraint Compliant Goal Formulation and Planning». arXiv, 2024. doi:10.48550/ARXIV.2405.12862.
  • Jakubowski, Jakub, Natalia Wojak-Strzelecka, Rita P. Ribeiro, Sepideh Pashami, Szymon Bobek, Joao Gama, e Grzegorz J Nalepa. «Artificial Intelligence Approaches for Predictive Maintenance in the Steel Industry: A Survey». arXiv, 2024. doi:10.48550/ARXIV.2405.12785.

[1]Si veda: Bughin, Jacques, Jeongmin Seong, James Manyika, Michael Chui, e Raoul Joshi. «Notes from the AI frontier: Modeling the impact of AI on the world economy». McKinsey Global Quaterly, 2018.

[2]Cheatham, Benjamin, Kia Javanmardian, e Hamid Samandari. «Confronting the risks of artificial intelligence». McKinsey Quarterly, 1-9, 2019.

L’articolo è pubblicato sul McKinsey Quaterly che è l’organo di stampa del McKinsey Global Institute, ovvero il più grande think-thank del mondo, leader nelle quote di mercato dei suoi settori di specializzazione che sono la consulenza economica, finanziaria e aziendale su scala globale. Particolarmente rilevante per questo tipo di società è individuare le nuove tendenze sottese ai cicli economici futuri e analizzarne ed evidenziarne le criticità.

[3] L’AI Act in Italia è già diventato legge. Pubblicato in Gazzetta ufficiale, il Regolamento del Parlamento europeo e del Consiglio sull’Intelligenza Artificiale (Reg. UE 2024/1689) è entrato in vigore il 1° agosto 2024. Qui sotto riporto il link al documento in italiano:

https://assets.innovazione.gov.it/1721376223-01-strategia-italiana-per-l-intelligenza-artificiale-2024-2026.pdf.

[4]Queste affermazioni di Elon Musk sono state riportate in vari contesti mediatici, non direttamente in un articolo di The Guardian, che comunque le riprende. Infatti, queste affermazioni, soprattutto la prima frase, sono state fatte in un commento su Edge.org e riprese da numerosi siti, tra cui TweakTown e Observer​. Tuttavia, The Guardian ha trattato temi simili e ha spesso citato Musk su argomenti riguardanti l’intelligenza artificiale.

[5]La nascita della psicologia scientifica viene fatta coincidere con il laboratorio di psicologia sperimentale di Lipsia nel 1876 ad opera dello psicologo e filosofo Wilhelm Wundt.

[6]Si pensi, ad esempio, al contributo di Wittgenstein nel suo Tractatus Logico-philosophicus (1921) allo sviluppo della logica elettronica.

[7]Alan Turing diceva che una macchina totalmente infallibile non può essere anche intelligente.

[8]Un esempio fra tanti: https://www.journals.elsevier.com/journal-of-mathematical-psychology, ultima visita del sito web: 22 maggio 2024.

[9]Un esempio in: Carrero, Gustavo, Joel Makin, e Peter Malinowski. «A mathematical model for the dynamics of happiness. Mathematical Biosciences and Engineering». AIMS Press, 2022.

[10] Pennisi, E. Synthetic genome brings new life to bacterium, Science,2010.

Brevi note su poesia, scienza e intelligenza artificiale

di Antonio Delogu, già ordinario di Filosofia morale, Università di Sassari

Brevi note su poesia, scienza e intelligenza artificiale © 2024 by Antonio Delogu is licensed under CC BY-SA 4.0 © 2024 by Maria Galdi is licensed under CC BY-SA 4.0

Abstract

Il poeta porta a evidenza, in virtù dell’immaginazione, le verità dello strato precategoriale del mondo vissuto. Anche lo scienziato si affida all’immaginazione nella scoperta delle verità del mondo oggetto. L’IA non può creare poesia né conoscenze radicalmente innovative nel campo scientifico: accresce il già dato (siti WEB, libri, saggi, ecc.) ma non in discontinuità col già conosciuto.

Keyword: immaginazione, creatività, mondo vissuto, precategoriale

The poet brings to light, through the power of imagination, the truths of the pre-categorial layer of the lived world. Similarly, the scientist relies on imagination to discover the truths of the objective world. AI cannot create poetry or radically innovative knowledge in the scientific field: it amplifies what already exists (websites, books, essays, etc.) but does not break away from what is already known.

Keywords: imagination, creativity, lived world, pre-categorical

Introduzione e stato dell’arte

Poesia e scienza sono, a prima vista, due percorsi conoscitivi lontani per modalità di approccio alla verità. Tuttavia, a ben vedere come stanno veramente le cose, per importanti aspetti possono considerarsi assai vicini. Guardiamo, pertanto, alla poesia e alla scienza per ciò che li accomuna per metodo e fine.

Il poeta descrive l’essenza delle cose del mondo della vita o mondo vissuto nel senso in cui ne parla Husserl, soprattutto nel suo ultimo lavoro La crisi delle scienze europee e la fenomenologia trascendentale. Essenza nel significato non di fondamento ultimo o principio primo della realtà (di cui la metafisica sostanzialistica parla dalle origini del pensiero occidentale sino ai giorni nostri ) ma nel significato di carattere permanente, perenne, universale delle reali o possibili umane esperienze.

La poesia tende a portare a evidenza lo strato originario, autentico duraturo del mondo della vita, occultato da pervasive abitudini, da “pre-giudizi” ideologici, da precostituite concezioni del mondo[1].

Anche al poeta, come al filosofo che ha percorso i sentieri della metafisica ( con risultati contrastati e contrastanti ) è precluso il possesso conoscitivo del fondamento ultimo della realtà. A riguardo, non l’evidenza ma l’approssimazione è nelle sue possibilità conoscitive e, perciò, raramente si avventura sui percorsi della metafisica essenzialistica, consapevole del fatto che il mistero è al fondo del mondo della vita oltre che del mondo naturale.

Il poeta tocca gli strati originari delle umane esperienze in virtù di fine sensibilità, d’intuizione perspicace, di appassionata sapienza, d’ingenuità dello sguardo, di maturità di giudizio.

La sua intuitiva attenzione vive di disciplina intellettuale, fervore sapienziale, interiore purificazione dal conformistico, abitudinario modo di vedere le cose.

La poesia è tensione a verità radicali, espressione di straordinaria comprensione dell’essenziale insito nell’esistenziale, dell’eterno incarnato nel contingente, del meta­-fisico  cioè di ciò che sta oltre, al di là della realtà biofisica; per dirla in breve, del senso (l’invisibile) dell’oggetto (il visibile).

Il poeta può introdursi “ in golfi e abissi inesplorati, in terre senza tempo e senza luogo” poiché nel suo cammino “ il mondo confina con l’inesauribile, l’insondabile”[2].

La poesia è rapporto intenso e intensificato con l’esperienza vissuta: illumina il senso originario tanto delle cose umili quanto di quelle elevate, riscoprendone l’inesauribile ricchezza nella cui contingenza alberga ciò che di esse è  perenne, universale o universalizzabile.

Il poeta è, quindi, in rapporto diretto con l’essenza, il “segreto” delle cose del mondo vissuto in virtù dell’esercizio dell’husserliana epoché che consente di essere dentro e, al contempo, al di sopra delle umane esistenze.

Nel suo cammino conoscitivo evita i preamboli metodologici, le divagazioni argomentative, le lungaggini o pause esplicative, le afflizioni ideologiche, il peso dei “pre-giudizi”: va direttamente alle cose, animato da originaria innocenza, da fuoco sacrale che ridona splendore alle parole e alle cose. Si affida alla sensibilità, all’intuizione, all’immaginazione così che può vedere ciò che gli altri non vedono: la profondità e la preziosità del mondo della vita.

L’autenticità della parola, l’incondizionatezza del pensiero sono essenziali alla poesia, che è tensione alla verità portata a evidenza dall’inquietudine, che “perlustra e scruta”, per dirla con un famoso verso di Caproni, l’intreccio tra paesaggio interiore e paesaggio esteriore, tra tempo e perennità, orizzontalità e verticalità.

La poesia è il cammino descrittivo che conduce al precategoriale intreccio tra mondo vissuto e mondo oggetto. Non a caso  è fioritura di metafore che consentono il contatto con la sacralità delle cose, con lo strato esperienziale che ne trascende la mera fisicità. La metafora, Borges ha detto, è l’anima, ciò che dona anima alla parola.

La poesia scopre l’universalità e la perennità nelle contingenti sensazioni, nei fuggevoli stati d’animo in virtù di un vigore conoscitivo che trascende il logoramento esistenziale motivato dalla vita abitudinaria. Perciò oltrepassa il proprio tempo, come testimonia il fascino di ciò che è veramente poesia: il suo essere dono  per il poeta e  per il lettore di rinnovata freschezza d’animo.

La poesia è invenzione di un nuovo linguaggio perché esige la scoperta dell’autentico valore semantico della parola, e resta vera poesia quando non cade nell’oscurità degli artifici sperimentalistici in cui, a dire il vero, la poesia muore.

 I grandi poeti sono tanto profondi quanto capaci di esemplare chiarezza. Non a caso il contadino e il pastore possono recitare l’Odissea e la Divina Commedia; non a caso l’adolescente legge Petrarca e Leopardi con appassionata, empatica intelligenza e, per stare al nostro tempo, Ungaretti e Montale, Walt Whitman e Borges, Machado e Garcia Lorca.

La vera poesia si affida all’universale comprensibilità perché esige  tanto l’essere colta quanto l’essere popolare.

Il poeta esplora lo strato preriflessivo, precategoriale del mondo della vita abbandonando il passo della prosa con l’esercizio della  esemplare ( difficile da praticare ) semplicità espressiva.

Il poeta può descrivere, perciò, con fedeltà al dato esperienziale, la pienezza di senso del candore di un gesto, della grazia di un sorriso, della dolcezza di uno sguardo, della tenerezza di un sentimento, della pesantezza d’anima; può portare a evidenza il senso universalmente esperibile dell’incolore quotidianità, delle insensate abitudini, del grigiore della noia, dell’angosciante oscurità della disperazione, della crepuscolare tristezza, della malinconica o nostalgica peregrinatio nel tempo o della luminosa freschezza  dell’innamoramento; può cogliere, insomma, lo strato di senso nascosto nelle pieghe delle abitudinarie, esistenziali esperienze; può donarci, con meravigliosa e meravigliata fedeltà a come stanno veramente le cose, la bellezza, la ricchezza, la complessità e la problematicità del mondo per noi.

L’acqua della scienza è esattamente descritta e spiegata dalla formula H2O. L’acqua della poesia è altrettanto esattamente quanto diversamente descritta nel Cantico delle creature di S. Francesco ( “Sor’Acqua/la quale è multo utile et humile et pretiosa et casta”) e nelle mirabili petrarchesche  Chiare, fresche e dolci acque.

I poeti ci donano molte verità sugli smarrimenti esistenziali, sul torpore dell’anima, sulla gratificante spiritualità, perché la poesia è, in definitiva, atto di libertà dello spirito, del cuore e della mente; atto che nasce dalla vocazione a fare esperienza di interiore rinascita, di rinnovamento del proprio modo d’essere al mondo, di un nuovo sguardo  sulle cose che ci riguardano.

Il poeta ci conduce alla scoperta di un nuovo mondo, di esistenziali paesaggi di cui, altrimenti, poco o nulla potremmo sapere. Perciò crea in noi stupore, meraviglia, lo stato d’animo per il quale il poeta Machado ha detto che la poesia “ è un profondo palpitare dello spirito”. Troviamo la verità che ci dona il poeta spagnolo  in un magnifico verso di Borges: “La poesia è un’Itaca di verde eternità”.

La grande poesia non è soltanto esercizio di raffinatezza formale, di esteriore brillantezza del verso ma anche, per essenziale vocazione, ricerca della profondità di senso del mondo della vita.

Ciò manca negli pseudo poeti che difettano di meditato esercizio del pensiero e del sentimento.

Nella poesia frutto di superficialità e di improvvisazione non troviamo la chiarezza e la semplicità per le quali, ha detto Robert Louis Stevenson, le parole escono dal loro uso quotidiano per trasformarsi in magiche modalità espressive. Il fatto è che, come dice Borges,  sappiamo cosa è la poesia ma non siamo in grado di definirla come ci accade anche per il tempo o l’amore.

La stessa poesia d’occasione, che descrive credenze, sentimenti, vissuti propri di ben precisate circostanze, si eleva al disopra del tempo in cui nasce e di cui parla per situarsi al livello del poema, dell’inno, dell’epica, della lirica, dell’elegia.[3] La poesia che resta imprigionata nella circostanza di cui parla scade a canzone. Ma la canzone non è poesia come accade di leggere in antologie scolastiche dove i cantautori si propongono come poeti: si è giunti al punto che al cantautore Bob Dylan è stato dato il premio Nobel (negato all’impareggiabile Borges).

Ragionamento e poesia

Dove c’è ragionamento, afferma Benedetto Croce, non c’è poesia. Il filosofo neoidealista parla, evidentemente, del ragionamento che si svolge per deduzione, per logica concatenazione di concetti.

Vi è, però, anche il ragionamento poetico che, coniugando passione e ragione, intuizione, immaginazione, riflessione e meditazione è vera e propria esperienza del venire al mondo degli esseri e delle cose, cioè fedele descrizione del senso originario del mondo della vita.

Nella poesia accade il miracolo del respiro metafisico capace di restituirci l’aurorale splendore del nostro originario essere al mondo tramite il sapiente, dialettico intreccio di pensiero riflessivo e esperienza preriflessiva.

La poesia che ci parla della  dimensione precategoriale delle esistenziali esperienze non per dottrina o sistema ma per straordinaria descrizione /narrazione si dà come vera e propria riverenza verso tutte le cose.

L’approdo poetico è l’ouverture del mondo vissuto, non come tempo mitico o remoto, come Età dell’Oro, dell’Eden perduto, ma come sorgiva esperienza dell’essenza valoriale del mondo della vita. Il poeta che ci porta entro le cose stesse, entro il ritmo perenne del divenire delle umane esperienze, a contatto con lo strato ontologico del nostro essere al mondo, ci dice che la nostra inerenza è, al contempo,  trascendenza rispetto al nostro essere al mondo vissuto come intreccio di soggetto e oggetto, di coscienza e natura: “Ho sentito, in una foresta”, ha detto, con eleganza poetica, il pittore André Marchant, “che non ero io a guardare la foresta, erano gli alberi che mi guardavano, che mi parlavano”. Il paesaggio si pensa in me, diceva poeticamente Cézanne[4].

Straordinario è il fatto che il testo poetico sia oltre che dell’autore anche del lettore: la sua vita continua  nell’animo e nella mente di chi legge. L’esperienza poetica, in effetti, vive nella unicità del poeta  quanto nella  molteplicità dei lettori, come tensione  alla atemporalità, alla verticalità,  abbandono del già detto, del già fatto, del già visto: “In nessun dove”, ha scritto Rainer Maria RilKe, “sarà mondo/ se non dentro di noi”.

Può dirsi anche che la poesia sia, in qualche misura, esperienza di preghiera se la preghiera è l’uscita dalla vacua quotidianità, anelito all’insondabile, al mistero, esperienza di religiosità che coglie la sacralità di ogni cosa. La poesia è la liturgia dell’anima che vive il palpito dell’eterno nel respiro del contingente.

La verità è , come Pessoa ci ha detto, che “la poesia esprime l’anima intera” che la meraviglia, lo stupore liberano del velo della insensata quotidianità, manifestandoci la realtà come se, suggerisce Borges,  “tutto accada per la prima volta anche per il lettore”. La poesia è come lo sbocciare della rosa che dona, per incanto, profumo ( senso ) al mondo.

Cosa dire del modo di procedere della ricerca scientifica?

Il desiderio di conoscenza della Natura sollecita lo scienziato all’esercizio della descrizione/ spiegazione dei dati empirici. La lettura del mondo biofisico è, per lui, questione di visione prima che di tecnica. Lo scienziato segue indizi, tracce, si sofferma su dati apparentemente insignificanti da cui trae la verità del fenomeno astraendone la causa o legge che   lo pone in essere e lo determina. Newton osserva la caduta della mela che nulla dice allo sguardo della superficiale quotidianità, ma da quella fuggevole caduta, andando oltre ciò che la vista gli offre, induce la legge fondamentale della gravitazione.

La scienza scopre le leggi che stanno dietro l’apparenza dei fenomeni affidandosi sia all’empiria che alla razionalità orientate alla conoscenza del mondo pensato, del mondo oggetto.

Il sapere scientifico giunge alla conoscenza delle cause o leggi dei fenomeni naturali per rettificazioni e purificazioni progressive, cioè, dice Bachelard, uscendo dalle false evidenze[5].

La ricerca scientifica è radicale rinnovamento del sapere: le rotture epistemologiche (come la teoria della relatività e la teoria quantistica) impongono l’abbandono di teorie scientifiche diventate dogmi, credenze ideologiche[6].

Thomas Kuhn distingue tra scienza ordinaria e scienza straordinaria in quanto scienza che fa emergere nuovi paradigmi che sono alla base delle rivoluzioni scientifiche. Ma il superamento dei non più praticabili  paradigmi può avvenire soltanto in virtù dell’immaginazione, di una esperienza intellettuale veramente creativa.

Il lavoro dello scienziato nasce non dalla fredda razionalità, dalla pratica di rigidi protocolli metodologici ma dall’immaginazione. Il metodo, nella ricerca scientifica, non precede ma segue l’atto intuitivo-creativo.

La scienza, quando esplora i suoi campi d’indagine (matematica, geometrie, fisica, astrofisica, geofisica, biologia, genetica) scopre “mondi” lontani da quelli della realtà quotidiana, con lo spirito di avventura cioè con l’immaginazione, che, dice Giacomo Leopardi, è “la sorgente della ragione: “L’immaginazione fa i grandi scopritori di verità: da una stessa sorgente, diversamente applicata, vennero i poemi di Omero e Dante e i Principii matematici della filosofia naturale di Newton”[7].  

Einstein, in una famosa lettera a Maurice Solovine del 1956, scrive che la comprensibilità del mondo è come un miracolo, un eterno mistero al quale solo l’immaginazione ci consente di accostarci.

Simon Weil ha scritto che la scienza per raggiungere il Bene  “si deve allontanare dalle cose del mondo”[8]. Quando l’astrofisico indaga sull’origine e sulla fine dell’universo, sulla struttura profonda del Cosmo, si allontana anni luce dal mondo della sua quotidianità.

Perciò lo scienziato tramite l’osservazione  del fenomeno particolare può portare a evidenza “verità generali grandi e importanti”[9].

La scienza

Il termine scienza, afferma Jonas, ha nel campo linguistico tedesco un’accezione più vasta rispetto a quella che assume nell’area anglosassone e abbraccia in sé anche le scienze dello spirito e della cultura e, diremmo, include perciò anche la poesia[10]. In questo senso può dirsi che scienza e poesia sono, in qualche modo o misura, germogli diversi di un’unica radice.

Heisenberg ci dice che i poeti muovono spesso obiezioni agli scienziati che traducono i loro percorsi conoscitivi in rigidi schemi logici[11]. Gli scienziati si affidano prima che agli schemi logici e alle procedure metodologiche all’immaginazione, i poeti elevano il linguaggio  argomentativo  e quello della quotidianità a novità espressiva e veritativa.

La verità delle leggi del mondo naturale, su cui verte il lavoro scientifico, è pari all’essenzialità di senso del mondo vissuto su cui verte lo sguardo poetico. Anche lo scienziato, a volte, ricorre come il poeta alla metafora. Nell’uno e nell’altro agisce, potremmo dire, una forza visionaria. La ricerca scientifica, come la scrittura poetica, è esperienza di passione, emozione oltre che d’ordine logico, di rigore d’argomentazione razionale.

Si può ragionare poeticamente e poetare razionalmente: scienziati e poeti, entrano nei rispettivi, distinti campi d’indagine, in qualche modo e misura, non con la fredda ragione ma con la calda immaginazione, poiché l’esattezza del mondo scientifico si dà come bellezza, come la bellezza del mondo poetico si dà come esattezza.

Lo scienziato, come il poeta, ricerca e scopre la bellezza, lo splendore dell’ordine che governa il mondo. Anche la sua visione della natura genera emozioni, stupore, meraviglia. Anche la sua avventura conoscitiva è attivata da sensibilità, da fantasia, dall’inquietudine del “non sapere”, dall’insofferenza per l’ignoranza, dall’errore che esige verità, dall’approssimazione che esige disciplina.

Vigore creativo e impegno riflessivo motivano il lavoro intellettuale del poeta (volto al mondo infinitamente ricco delle umane esperienze, delle profondità e delle altitudini spirituali) e quello dello scienziato [volto al mondo ( esemplificando )] delle particelle subatomiche, della relatività dello spazio-tempo, delle relazioni della meccanica quantistica, dell’immensità delle galassie, del microcosmo “bio-fisico” ).

Lo scienziato e il poeta, con diverse modalità, viaggiano nei leopardiani “sterminati spazi” e  “sovrumani silenzi”, fanno esperienza di produttiva contemplazione che, ci dice Dante Alighieri, è “perfezione della nostra anima”.

Lo scienziato, come il poeta, fa esperienza di uno sguardo radicalmente nuovo sul mondo che esplora: Einstein ha cambiato il modo con il quale guardiamo all’universo: gli oggetti, la luce, lo spazio, il tempo, la massa, l’energia.

L’avventura scientifica e quella poetica sono esperienze d’interiore raccoglimento creativo, di visione straordinaria, di estraneazione dal quotidiano vivere e sentire, di sguardo puro per la Verità, d’insopprimibile desiderio di conoscenza che attiva l’entusiasmo per l’avventura conoscitiva, l’amore per la disinteressata curiosità intellettuale.

Nell’esperienza scientifica e in quella poetica le persone sono animate da spirito di libertà, di responsabilità, di onestà intellettuale e morale, in definitiva, di saggezza, in cui non vi è spazio per scopi o sentimenti egoistici.

Tra scienziati, come tra poeti, non vi è conflitto poiché il loro impegno intellettuale è mirato all’universalità del sapere.

L’esperienza scientifica e quella poetica sono anche nuove esperienze di sé oltre che del mondo, che vengono a evidenza nel silenzio, nella lontananza dai rumori, dagli umori, dai malumori; nell’uscita dall’irrequietudine, nell’attenzione che si dà nell’atto creativo di  scoperte di nuovi mondi.

Lo scienziato e il poeta si affrancano dalla contingenza, dalla passività vivendo una sorta di beatitudine spirituale che si trasforma in meraviglia, stupore per la scoperta di un nuovo mondo: mondo vissuto per il poeta, mondo oggetto per lo scienziato.

Il poeta e lo scienziato si affidano all’immaginazione, che è la dimensione conoscitiva propria dell’esperienza creativa. Senza immaginazione non si prova il volo poetico, non si formulano ipotesi nella ricerca scientifica[12].

L’esperienza razionale ed emotiva del poeta si ripete nel lettore, che se ne sente personalmente coinvolto. Il lettore con la sua immaginazione si immerge nel mondo del poeta, lo ricrea, lo rinnova, lo arricchisce. L’esperienza intellettuale ed emotiva dello scienziato è, invece, esclusivamente personale o condivisa dal e nel gruppo di ricerca. Il lettore non può rifarne il cammino neppure con l’immaginazione: ne conosce soltanto il risultato.

Il lavoro del poeta sfiora il mistero del mondo della vita, il lavoro dello scienziato si confronta con i problemi posti dalla necessità di conoscere il mondo naturale.

Perciò è importante che gli scienziati frequentino il mondo dei poeti perché ciò può intellettualmente arricchirli. Altrettanto importante è che i poeti frequentino il mondo degli scienziati poiché il vissuto di cui danno comprensione ha la sua radice nella realtà di cui gli scienziati danno spiegazione. Il poeta che ignora il cammino della scienza rischia la fantasticheria, lo scienziato che ignora i sentieri della poesia rischia l’aridità del sentire e del pensare.

L’auspicio è che anche gli scienziati sentano il desiderio di avvicinarsi al mondo dell’invenzione poetica e che i poeti sentano l’esigenza guardare al mirabile mondo degli scienziati. Forse è questo il significato di ciò che ha detto Novalis: “La forma compiuta delle scienze deve essere poetica”.

Il poeta e lo scienziato, incrociando e intrecciando le loro esperienze creative convergono verso il senso e il fine autentici della loro fatica conoscitiva, verso la  Verità che abita nella coscienza di ciascun individuo: il rispetto della Natura, la dignità di ogni individuo, la sacralità di ogni umana esistenza. Tutto ciò non può non portare a evidenza anche le differenze tra i due percorsi conoscitivi. Nella poesia non ci sono progressi né invecchiamento, nella scienza il progresso è essenziale perché le scoperte scientifiche esigono l’abbandono delle acquisite certezze.

L’intelligenza artificiale può creare poesia, può creare scoperte scientifiche?

L’IA è la capacità di trovare soluzioni a un’infinità di problemi utilizzando i database senza i quali non potrebbe giungere ad alcun risultato. Il suo percorso conoscitivo muove  dal già dato per avviare e svolgere un ben precisato (vedi Popper) metodo di ricerca. Ben diverso è quello del poeta orientato verso le verità profonde, le ragioni essenziali del mondo della vita che possono darsi ad evidenza nel ritmo, nella musicalità, nella bellezza, nella originalità irripetibile del momento sorgivo della sua creatività. L’IA, il robot umanoide è dato biofisico, non corporeità cioè corpo vissuto, esistenziale esperienza di sentimenti, affetti, di dubbio, di scelta, di desiderio.

L’IA non è e non ha il “dentro di noi” in cui alberga anche il silenzio del raccoglimento da cui può nascere l’innovativo, creativo linguaggio poetico.

L’intelligenza poetica, non l’IA, comprende il linguaggio del cielo (limpido, oscuro, tempestoso, sereno), il linguaggio del mare (calmo, impetuoso), del tramonto (triste, nostalgico,  amoroso, sognante), dell’alba (fresca, vigorosa), del paesaggio; il silenzio della umana fragilità, la sofferenza delle ferite dell’anima.

Il poeta prova cioè vive intensamente l’esperienza creativa che, scrive il poeta cileno Vicente Huidabro, è “come una chiave che apre mille porte”.

Il mondo di cui può parlare l’IA non è il mondo delle allegorie, delle metafore, delle immagini che nella scrittura poetica, vero e proprio stato di grazia; è esperienza di splendore e purezza d’anima, d’inquietudine metafisica. Il mondo dell’IA proviene dal già dato (i database), la poesia nasce dalla novità del momento creativo.

Se si parla di IA con riferimento a ChatGPT ( trasformatore generativo “pre-addestrato”: altri sistemi di IA, meno sofisticati, sono Siri e Alexa ) è necessario tener in evidenza che siamo agli inizi di una tecnologia di cui non è possibile immaginare gli sviluppi come al tempo del volo dei fratelli Wright non era possibile immaginare gli attuali traguardi dell’astronautica; o, al tempo di Antonio Meucci immaginare il salto di qualità dalla invenzione del telefono agli attuali cellulari.

Il sistema ChatGPT consente oggi di rispondere a un’infinità di domande, di comporre articoli e saggi su qualsiasi argomento in brevissimo tempo, di comporre canzoni, di tradurre un testo in molte lingue, di riassumerlo: tutto ciò utilizzando  i database.

In effetti, ChatGPT viene addestrato sui dati tratti da libri, articoli, siti web: ciò consente l’aggiornamento e l’accrescimento  continuo delle conoscenze.

Il problema che ci si pone, però, è se l’IA può creare poesia, fare scoperte scientifiche che segnino un vero salto qualitativo rispetto alle conoscenze acquisite, come può dirsi della relatività e della meccanica quantistica rispetto al meccanicismo newtoniano.

Riguardo alla poesia vi è da dire che essa nasce dal mondo vissuto così che vi sono coinvolte sensibilità, intenzione, emozione, immaginazione. La poesia, quindi, è esperienza di comprensione delle molteplici modalità in cui si dà il mondo della vita, non di spiegazione di problemi del mondo oggetto: la soggettività, la corporeità come corpo vissuto ne sono la fonte, la trama.

L’IA è razionalità pragmatica, la poesia è ragione contemplativa, espressione di una soggettività che è non un fatto o un dato ma un farsi nella comprensione di sé, del senso del suo essere  soggettività esistenzialmente esperienziale.

L’IA non è coscienza di sé, del senso di ciò che fa, del valore semantico del linguaggio. Non può sapere la differenza tra “gli elettricisti stanno lavorando” e le “lavatrici stanno lavorando”; tra “il custode aprì la porta” e il vento soffiò nella stanza”[13]. Altrettanto può dirsi riguardo alle “  ferite dell’anima e  ferite del corpo”, di un’anima che ondeggia e del mare che ondeggia.

Nel campo dell’IA il rapporto è non tra soggetto e oggetto ma tra oggetto e oggetto; perciò, non vi può germogliare il senso delle esistenziali esperienze: il senso della paura, del timore, dell’attesa, della speranza, del pentimento, del rimorso, del ravvedimento, della gelosia, delle infinite sfumature dei sentimenti.

L’IA non può fare esperienza di ragionevolezza, di saggezza, della gratificante solitudine né della deprimente solitudine; non può comprendere, chiusa nella razionalità logica degli algoritmi, il valore della spirituale energia, della forza morale perché l’una e l’altra trascendono la dimensione biofisica.

L’intelligenza umana è razionalità e immaginazione, l’IA è memoria (molto più della intelligenza umana) e calcolo, ma non immaginazione né volontà né desiderio di immaginare.

Nella poesia c’è l’anima del poeta con le sue luci, le sue ombre, le sue penombre, le sue estasi, le sue beatitudini, le sue nevrosi, la sua interiore stanchezza.

La poesia è, per eccellenza, esperienza di autoriflessione, di autocoscienza inclusiva del mondo vissuto, relazionale, intersoggettivo.

L’IA è del mondo di cui parlano il fisicalismo, il materialismo, il meccanicismo ai quali non è riducibile l’anima, l’esistenziale interiorità in cui nasce il senso del mondo vissuto.

La poesia esige il passo della comprensione, della sensibilità, impossibile per l’IA.

L’IA non aspira alla virtuosità, al perfezionamento morale: non è esperienza di benevolenza, compassione, biasimo, ambizione, tenerezza, dei sentimenti, insomma, che possono costituire la trama del  vissuto poetico.

L’IA non può essere madre, padre, figlio, amico, non è né può essere esperienza in prima persona: non è soggettività in cui originariamente nasce il desiderio di conoscenza, di comprensione di ciò che si è e di ciò che si vuole essere per il fatto, di tutta evidenza, che è oggetto posto in essere dal soggetto umano.

Si può dire che la poesia è l’espressione della soggettività al più alto grado (come la filosofia e la scienza) che sia l’espressione, la manifestazione dell’anima di cui secoli di materialismo, di determinismo non hanno cancellato la traccia[14]; altrettanto non può dirsi della IA.

Così stanno le cose. Del futuro, soprattutto di quello remoto, non è possibile dire qualcosa di plausibile, tantomeno di certo. Lo scrittore di fantascienza K. Stanley Robinson, nel suo recente racconto Aurora  (Ubiliber, editrice dell’Unione Buddhista italiana, 2015) parla del viaggio di una gigantesca astronave che nel ventiseiesimo secolo porta duemila esseri umani verso il sistema Tau Ceti. Il viaggio dura duecento anni, così che nessuno degli umani partiti dalla Terra concluderanno il viaggio interstellare: alla conclusione del viaggio arriveranno forse i figli, certamente i nipoti e i pronipoti. L’IA Nave (che guida il viaggio cosmico) è capace di acquisire coscienza, emozione, senso del dovere, senso  di fedeltà allo scopo per il quale gestisce l’astronave Aurora.

Di questa IA può parlare lo scrittore di fantascienza, non il filosofo né lo scienziato: siamo nel mondo del transumanesimo, del superamento dell’umano, della fusione tra intelligenza umana e intelligenza artificiale, dell’umanoide robotico.

Conclusioni

Cosa ne sarà, in questo nuovo mondo, della poesia? Ci sarà l’umanoide poeta? Anche questo è possibile, ma resta da vedere di quale immaginazione, di quale fantasia, di quale creatività, di quale contatto con la vita reale sarà capace la robotica IA.

Il mito di Pandora ( tra i più conosciuti della mitologia greca ) racconta che il dio Vulcano fabbricò una donna bellissima, Pandora appunto. Ciascuno degli dèi fece un dono a Pandora. Zeus le donò un vaso chiuso dicendole di non aprirlo.

La bellissima donna, però, disubbidì a Giove: aprì il vaso da cui uscirono tutti i mali del mondo: malattia, morte, vecchiaia, miseria, pazzia, violenza. Ma, dal fondo del vaso, uscì   anche la  speranza. Il mito di Pandora, raccontato da Esiodo nella Teogonia e nelle Opere e i giorni, può dirci qualcosa riguardo all’IA. L’umanoide, l’essere transumano fabbricato dalla tecnologia, può portare sciagure ma anche la speranza di un mondo migliore: su ciò che accadrà nel lontano futuro, come quello del XXVI secolo, il filosofo, il poeta, lo scienziato non possono dirci qualcosa di credibile: quali saperi ci saranno? l’umanoide robotico sarà  intelligenza creativa anche in virtù del provare emozioni, meraviglia, speranza, sentimenti umani, insomma? sarà capace del creativo linguaggio poetico discontinuo rispetto al linguaggio comune e, perciò, capace di entrare nel labirinto degli infiniti significati del mondo della vita? sarà capace di pensiero veramente alternativo rispetto al modo comune di vedere le cose, di comprendere il senso della realtà? L’IA sarà autocoscienza, capacità di autocritica, energia intellettuale di autoformazione? sarà un fatto o un farsi? potrà fare esperienza del sonno, del sogno, del passaggio dal sonno alla veglia? l’IA sarà semplice oggetto biotecnologico o qualcosa di qualitativamente diverso come la mente, un essere che non esiste in sé, non è a se stante, ma si dà a conoscere nell’interazione col mondo in cui si trova inserito? sarà capace soltanto di pensiero calcolante o anche di pensiero immaginativo come quello del poeta e dello scienziato? Il futuro remoto è mistero, enigma, segreto che oggi non è possibile svelare.


[1] La bibliografia su che cos’è la poesia è, ovviamente, assai ampia. Indichiamo, qui, alcuni saggi per la loro vicinanza, sotto qualche aspetto,  al percorso qui proposto: Mazzarella, Eugenio. “Lirica e poesia.” Bollettino Filosofico, December 12, 2017, Vol 32 (2017): Poesia e filosofia a confronto. A partire dal moderno. doi: 10.6093/1593-7178/5348; Mazzarella, 2007. Lirica e poesia. Brescia: Morcelliana; Boitani, Piero, 2001. Verso l’incanto: lezioni sulla poesia. Bari: Laterza; Paz, Octavio, 2023. L’altra voce. Poesia e fine secolo. Milano: Mimesis; Rondoni, Davide, 2008. Il fuoco della poesia. In viaggio nelle questioni di oggi. Milano: Rizzoli; Distaso, Leonardo V. “L’incantesimo della mimesis: poesia e filosofia tra essere stato e poter essere.” Bollettino Filosofico, December 12, 2017, Vol 32 (2017): Poesia e filosofia a confronto. A partire dal moderno. doi: 10.6093/1593-7178/5345; Bisutti, Donatella, 2016. La poesia salva la vita. Capire noi stessi e il mondo attraverso le parole. Milano: Feltrinelli.

[2] Mattesini, Francesco, Giuseppe Langella (cur.) ed Enrico Elli (cur.), Prefazione, 17. 2004. In Il Canto Strozzato. Novara: Interlinea Edizioni.

[3] Caillois, Roger. 1958. Les Jeux et Les Hommes : (Les Masque et Le Vertige), 131-132. Paris: Gallimard.

[4] Su questo aspetto del rapporto soggetto-mondo vedere il celebre saggio di Merleau-Ponty, Maurice. 1962. Il dubbio di Cézanne, 27-44. In Senso e non senso. Milano: Il Saggiatore.

[5] Vedere: Bachelard, Gaston. 1998. La filosofia del non – Saggio di una filosofia del nuovo spirito scientifico. Roma: Armando editore.

[6] Vedere: Reale, Giovanni, Dario Antiseri, 2008. Storia della filosofia – scienza, epistemologia e filosofi americani del XX secolo, 11. Milano: Bompiani.

[7] Leopardi, Giovanni, 1997. Zibaldone, 445. Roma: Newton.

[8] Weil, Simone, 1971. Sulla scienza, 144. Torino: Borla.

[9] Leopardi, Giovanni, 1997. Zibaldone, 642. Roma: Newton.

[10] Jonas, Hans, 1992. Scienza come esperienza personale – autobiografia intellettuale, 10. Brescia: Morcelliana.

[11] Heisenberg, Werner Karl, 1961. Fisica e filosofia, 200. Milano: Il Saggiatore.

[12] Vedere: Colozza, Giovanni Antonio, 1900. L’immaginazione nella scienza – Appunti di Psicologia e Pedagogia. Torino: Paravia; Deregibus, Arturo. 1998. La filosofia di Gaston Bachelard tra scienza e immaginazione. Firenze: Editrice Le Lettere. Nicotra, Luca. 2023. “L’immaginazione nell’arte e nella scienza.” JD. ArteScienza 10 (19). IT: A.P.S. “Arte e Scienza”: 5–38. doi: 10.30449/AS.v10n19.171.; Gallo, Domenico, 2004 (pubblicato il 16 Novembre 2004). L’immaginazione scientifica: https://www.carmillaonline.com/2004/11/16/limmaginazione-scientifica/ (breve articolo divulgativo; ultima visita del sito web: 18/10/2024); Holton, Gerald, 1983. L’immaginazione scientifica. Torino: Einaudi; Holton, Gerald, 1997. La lezione di Einstein. In difesa della scienza. Milano: Feltrinelli.

[13] Andler, Daniel, 2024. Il duplice enigma – Intelligenza artificiale e Intelligenza umana, 232, 236. Torino: Einaudi. Per una bibliografia aggiornata sul tema vedere: Andler, 379-392.

[14] Vedere il recente saggio di Redeker, Robert, 2023. L’abolition de l’ame. Paris: Editions du Cerf.