di Davide Orlandi, Universidad de Granada – ORCID ID: 0009-0007-2102-625X
E-mail: orlandi.dav@tiscali.it
(http://doi.org/10.14672/VDS20243PR10)
Intelligenza umana vs intelligenza artificiale © 2024 by Davide Orlandi is licensed under CC BY-SA 4.0
Non c’è dubbio che l’intelligenza artificiale si affermerà.
La questione affascinante è come le persone si adatteranno.
Daniel Kahneman
Psicologo, Premio Nobel per l’Economia
Nessuno ne parla in questo modo, ma penso che l’intelligenza artificiale sia quasi una disciplina umanistica. È davvero un tentativo di comprendere l’intelligenza umana e la cognizione umana.
Sebastian Thrun
Innovatore, educatore di imprenditori e informatico, CEO della società di droni autonomi Kitty Hawk Corporation, presidente e co-fondatore di Udacity
Abstract
La tecnologia dell’intelligenza artificiale sta raggiungendo un livello di maturità tale da poter essere utilizzata in maniera pervasiva in vari ambiti, dalla profilazione commerciale ai veicoli a guida autonoma passando anche per tematiche delicate come i criteri di selezione del personale o la diagnosi in ambito bio-medico. Le persone si troveranno esposte massivamente all’IA nel prossimo futuro. Il presente articolo vuole indagare gli aspetti problematici relativi al come le persone stanno reagendo all’introduzione dell’IA nella loro vita. Si intendono, quindi, evidenziare gli aspetti emergenti che nascono dalle applicazioni dell’intelligenza artificiale, sfruttando una duplice prospettiva: da un lato il modo in cui le macchine cercano di diventare sempre più ‘umane’ per poter operare delle scelte efficaci e sensate e dall’altro come gli individui e le organizzazioni reagiscono all’introduzione dell’intelligenza artificiale nel loro ambiente lavorativo e sociale, alla luce del paradigma emergente contemporaneo della Human-Machine Cooperation.
Keyword: intelligenza artificiale, tecnologia, Human-Machine Cooperation, IA, applicazioni
Abstract
Artificial intelligence technology is reaching such a level of maturity that it can be used pervasively in various fields, from commercial profiling to self-driving vehicles, and even in such sensitive areas as personnel selection criteria or diagnosis in the bio-medical field. People will find themselves massively exposed to AI in the next future. This article aims to investigate the problematic aspects of how people are reacting to the introduction of AI into their lives. It is therefore intended to highlight the emerging aspects arising from applications of artificial intelligence, exploiting a dual perspective: on the one hand, how machines seek to become increasingly ‘human’ in order to make effective and meaningful choices, and on the other hand, how individuals and organizations react to the introduction of artificial intelligence into their working and social environment, in the light of the contemporary emerging paradigm of Human-Machine Cooperation.
Keywords: artificial intelligence, technology, Human-Machine Cooperation, AI, applications
Introduzione
Recentemente l’intelligenza artificiale o IA è diventata il centro di un grande numero di attese ma anche di perplessità e di preoccupazioni. L’enorme versatilità della tecnologia la rende adattabile ai più svariati contesti, dagli acquisti online fino alla salute personale. Gli elementi a favore dell’IA sono numerosi. Quasi l’80% degli executive manager che stanno implementando l’IA nel loro business già ne vede dei ritorni, ancorché moderati. L’introduzione dell’IA nelle organizzazioni è ancora nella sua infanzia. Ciononostante, tralasciando la meta ultima dell’intelligenza generale o GAI che forse è ancora decisamente al di là dal venire, il potenziale è veramente enorme.
Il McKinsey Global Institute ha stimato che l’IA contribuirà all’economia mondiale con 13 trillioni di dollari l’anno già a partire dall’anno 2030[1]. Potremo dire con una licenza poetica che l’IA ha le premesse per rappresentare un moderno equivalente della corsa all’oro. Tuttavia, l’IA potrebbe portare una serie di conseguenze non volute e in alcuni casi gravi dal momento che essa condivide i rischi già noti per quanto riguarda l’advanced analytics. I rischi più ovvi sono la violazione della privacy, episodi discriminatori, manipolazione del sistema politico e altri. Ma sono le conseguenze impreviste e non prevedibili a destare maggiore preoccupazione. Cheatham[2] pone in luce alcuni rischi che potrebbero verificarsi nelle applicazioni real-life dell’intelligenza artificiale. Un algoritmo medico potrebbe indurre a fare scelte che poi portano alla morte di un paziente, per non parlare dei rischi associati all’IA in ambito militare per la sicurezza nazionale. Il risultato di un simile fallimento critico avrebbe delle ripercussioni devastanti sulle organizzazioni coinvolte, a cominciare dal danno d’immagine, cause di risarcimento, investigazioni giudiziarie e una riduzione della fiducia da parte dell’organizzazione. Proprio mentre l’Autore scrive Apple ha dichiarato che implementerà un sistema di analisi delle immagini degli utenti a scopo di contrasto alla pedofilia. È evidente come un errore a carico di un innocente indagato o esposto sui social come ‘pedofilo’ potrebbe intaccare sensibilmente la fiducia dei clienti di Apple nelle capacità dell’organizzazione e nella sua reputazione di leader tecnologico di settore. Uno dei problemi relativi a questa ‘corsa all’IA’ è che in realtà sono pochi i player che capiscono a fondo la portata dei rischi sociali, organizzativi e individuali legati all’implementazione dell’IA, o che possiedono una conoscenza operativa degli aspetti tecnici dell’IA come, ad esempio, l’importanza dei dati che vengono dati in pasto all’IA, passando per le caratteristiche degli algoritmi e le interazioni uomo-macchina che si genereranno. Come risultato i pericoli vengono spesso sottovalutati o la capacità di far fronte ad eventuali problemi da parte dell’organizzazione è largamente sopravvalutata. La questione dell’implementazione dell’IA viene vista spesso come un problema tecnico da delegare al reparto IT che si ritiene perfettamente all’altezza della situazione.
L’importanza dei dati
La quantità di dati non strutturati prodotti dal web, dai social media, dai telefoni cellulari, dai sensori e dall’Internet of Things è ormai enorme.
È pertanto facile che talvolta vengano utilizzati dati sensibili. Per esempio, l’IA potrebbe rimuovere correttamente il nome del paziente da una cartella clinica ma il nome potrebbe essere presente anche in una nota del medico e quindi ‘passare’ il filtro dell’IA. È importante quindi anche che il personale che fornisce dati all’IA sia reso consapevole delle normative di protezione dati se vogliono evitare un danno di reputazione.
L’IA spesso opera in connessione con altre strutture tecnologiche che fungono da raccolta dei dati. Un errore a questo livello base può alterare la base di dati su cui opera l’IA portando questa ad una performance scorretta e a possibili rischi per l’organizzazione che la utilizza. Ad esempio, un grosso istituto bancario potrebbe finire nei guai se l’IA mancasse di individuare le frodi solo perché il dataset è incompleto e non include tutte le transazioni dei clienti. È pertanto necessaria una implementazione verticale dell’IA nell’organizzazione, il cui costo in termini tecnologici e di formazione del personale è spesso sottovalutato alla luce di futuri profitti stellari.
L’area di rischio più importante e spesso sottovalutata è quella dell’interazione uomo- macchina. Nonostante l’automazione in genere sia ormai diffusa all’interno delle realtà organizzative, questo processo è stato tutt’altro che indolore e gli incidenti, talvolta anche mortali, dovuti ad un fallimento dell’automazione, sono stati numerosi. Molti di questi errori non avrebbero avuto conseguenze così catastrofiche se l’attenzione dell’operatore non fosse stata altrove rispetto al processo e soprattutto se l’operatore fosse stato a conoscenza di come intervenire in caso di fallimento. A questo proposito ad es. l’introduzione delle macchine a guida automatica, in maniera analoga a quanto già osservato in altri casi di automazione completa, può portare facilmente il guidatore a distrarsi ad esempio guardando il telefono o addirittura riposando, facendo pensare che in caso di fallimento del sistema di guida autonoma del veicolo questi non sarebbe in grado di porre rimedio evitando un incidente. Un altro scenario è quello in cui l’operatore umano non riponendo fiducia nell’automazione, decide di non utilizzarla o di intervenire sul processo automatico bloccandolo senza che ce ne sia effettivamente bisogno. Data la natura dipendente dai dati dell’IA è evidente come un qualsiasi errore o insieme di errori a partire dai sensori possa causare un comportamento anomalo del sistema che può implicare un grado di rischio direttamente dipendente dall’applicazione in cui è implementata. Dal momento che l’IA spesso viene addestrata con un modello usato come gold standard da raggiungere una volta portata a termine la fase di apprendimento, il rischio è che attraverso i dati della sessione di addestramento vengano introdotto bias inconsapevoli dagli operatori umani che l’IA farebbe propri, di fatto confermandoli e generalizzandoli ad altri contesti e situazioni. È già stato osservato come spesso l’IA apprenda gli stereotipi, le discriminazioni, e l’uso improprio del linguaggio semplicemente perché questi sono effettivamente presenti nella base di dati. In questo caso l’IA replicherebbe gli aspetti meno nobili o addirittura disfunzionali della società umana, contribuendo così allo status quo, ed è per questo che da più parti è stata avanzata l’ipotesi di una normazione[3] etica dell’IA. Il Regolamento europeo sull’intelligenza artificiale è ufficialmente una legge dell’Unione, dopo la sua pubblicazione in Gazzetta, avvenuta venerdì 12 luglio. Si tratta del Regolamento 1689/2024, un numero che faremo bene a ricordare perché, come il padre di tutti i regolamenti sui dati, ossia il 679/2016 (aka GDPR) promette di fare parlare di sé molto e molto a lungo.
Si tratta dell’ultimo regolamento che, a livello comunitario, disciplina l’impiego dei dati, e questa volta in uno scenario del tutto nuovo, ossia il loro utilizzo per creare algoritmi di AI (generativa e non solo), che si pone nel solco intrapreso dall’Unione europea per regolamentare la pervasività della digitalizzazione che ci riguarda tutti: basti pensare al DGA (Digital Governance Act, 2023), al DA (Data Act, 2023), al DSA (Digital Services Act, 2022) e al DMA (Digital Markets Act, 2022) per comprendere che la legislazione europea degli ultimi anni si è orientata in maniera preponderante su quello che ormai è a tutti gli effetti il bene più importante che ci sia in circolazione, ossia l’insieme di dati personali che circolano nel web.
I potenziali rischi nella implementazione e gestione dell’IA sono presenti a più livelli dell’insieme organizzazione/IA. È però possibile pensare ad una strategia per correggerli purché articolata secondo i vari livelli di rischio potenziale di errore.
I livelli sono concettualizzazione, gestione dei dati, sviluppo del modello, implementazione del modello, impiego del modello e ripercussioni sui processi decisionali dell’organizzazione.
Confronti
Sia l’opinione comune che la letteratura scientifica convergono nel definire l’intelligenza artificiale come la ‘next big thing’, considerando l’avvento dell’IA come pervasivo, inevitabile e in grado di suscitare notevoli preoccupazioni sia tra i ricercatori dell’IA (ad es. Russell) sia tra chi certo non si possa definire tecnofobo, come Elon Musk che, a proposito dell’intelligenza artificiale, ha detto:
Il ritmo dei progressi nell’intelligenza artificiale (non mi riferisco all’IA ristretta) è incredibilmente veloce. […], non hai idea di quanto velocemente stia crescendo ad un ritmo vicino all’esponenziale. Il rischio che succeda qualcosa di gravemente pericoloso è dentro cinque anni di tempo. 10 anni al massimo[4].
Il tema del come e quando sarà possibile sviluppare una AGI – Artificial General Intelligence – una sorta di robot senziente è dibattuto in modo feroce tra esperti del settore e filosofi, e più in generale da studiosi degli ambiti più disparati che si interrogano su domande del tipo: sarà possibile? È corretto desiderarlo? Possiamo difenderci dall’IA? C’è qualcosa che un AGI non potrebbe fare mentre un essere umano sì? Le domande evidentemente suscitano aspetti profondi dell’umano interrogarsi su cosa sia l’intelligenza, fino a dove si può spingere, e in ultima analisi su che cosa significhi essere umani se possiamo produrre una macchina che ci riproduce perfettamente o addirittura potrebbe essere migliore di qualunque umano esistente. Di fronte ad un simile scenario ritenevo scontato che la psicologia avesse qualcosa da dire, se non addirittura poter fare la parte del leone, dal momento che l’intelligenza è un tema classico della psicologia e in particolare della psicometria (con alle spalle una esperienza di circa un secolo di misurazione delle abilità cognitive umane) e perché l’introduzione delle tecnologie IA nei vari contesti non poteva che suscitare l’interesse della Cyberpsicologia, che è appunto quella branca della psicologia che si occupa dell’effetto che le tecnologie hanno sulle persone, sui loro rapporti interpersonali e su come essi vivono la loro esperienza quotidiana. Stranamente, nel grande e per certi versi furioso dibattito sull’IA, la psicologia, e in particolare la Cyberpsicologia sono i ‘grandi assenti’. I due settori, quello dell’IA da una parte e quello della psicologia generale e della psicometria dall’altra, sembrano non scambiare affatto informazioni tra loro, con il risultato che, spinti dal desiderio di sviluppare macchine sempre più intelligenti e compatibili con l’essere umano, i ricercatori dell’IA hanno preferito rivolgersi alla filosofia piuttosto che alla psicologia. Questo ha ingenerato uno stallo nello sviluppo di IA avanzate perché la filosofia, in ambito morale, non ha ancora messo a fuoco le caratteristiche distintive dell’azione morale (ovvero che cosa sia giusto fare). È per questo motivo che sul finire dell’Ottocento la filosofia del pensiero, della percezione e altre branche della filosofia della mente, tentarono l’approccio alle scienze naturali e, sull’esempio della filosofia naturale alla base delle scienze già mature, diedero origine appunto alla psicologia come disciplina scientifica a sé stante[5]. Quindi appare piuttosto comprensibile che domandandosi che cosa sia un comportamento intelligente nelle sue linee generali ci si rivolga ai filosofi della mente e del linguaggio[6] in prima istanza, e che questo tentativo possa poi rivestirsi di dati scientifici raccolti e analizzati durante i circa 150 anni di psicologia sperimentale, anche se questo sviluppo appare prematuro considerando lo stadio dell’evoluzione dell’IA contemporanea. Invece, il motivo per cui i più recenti sviluppi dell’intelligenza artificiale non abbiano suscitato un interesse attivo e sostenuto da parte degli psicologi appare legato al fatto che l’IA ha sinora affrontato problemi che modellano solo aspetti molto parziali del funzionamento mentale ed emotivo dell’essere umano (ad es. il gioco degli scacchi, oppure una pattern recognition). Pertanto, mancando dei riferimenti incrociati che collegassero i due ambiti, il presente lavoro ha preso un carattere pionieristico ed esplorativo volto a raccogliere ed analizzare le intuizioni e i temi oggetto di dibattito e cercando di integrarli in un ‘vademecum’ dell’IA a uso e consumo del cyberpsicologo che, come me, desiderasse muovere i primi passi in quello che verosimilmente in futuro sarà un tema centrale di discussione e di vita quotidiana. Nel fare questo, ho voluto sottolineare i motivi per cui ritengo che gli psicologi e i cyberpsicologi dovrebbero interessarsi dell’IA nel prossimo futuro, nella speranza di cominciare a colmare il gap che è attualmente presente in letteratura. Io ne ho individuati almeno tre, ovvero l’uso dell’intelligenza artificiale per comprendere il comportamento umano, l’IA di consente di concentrarci su quello che ci rende più umani, la cooperazione uomo-IA è il passo successivo della Human-Machine Cooperation.
L’uso dell’intelligenza artificiale per comprendere il comportamento umano
Prima di inoltrarmi nell’argomento è necessario fare alcuni distinguo. La letteratura specialistica è molto interessata alla creazione di una intelligenza sovrumana tra entusiasmo, ineluttabilità e disperazione. La mia posizione in questo dibattito è stata sostanzialmente di ignorarlo, ritenendolo, a torto o a ragione uno scenario avveniristico forse prossimo come potrebbe essere la propulsione interstellare e quindi più degna di speculazioni fantascientifiche che scientifiche. Anche se è probabile che un giorno questo traguardo tecnologico sarà raggiungibile ciò avverrà verosimilmente lontano nel tempo (i ricercatori dell’IA sono storicamente noti per l’ipersemplificazione con cui affrontano i problemi dell’intelligenza e la visione quasi messianica dell’essere artificiale perfetto prossimo venturo) in un contesto storico, sociale e tecnologico completamente diverso. Pertanto, è con umiltà che ho assegnato ai posteri il compito di confrontarsi con questa nuova tecnologia, preferendo concentrarmi sulla ricerca nell’IA e le sue applicazioni contemporanee. A prescindere dal problema della fattibilità e della cornice temporale in cui questo potrebbe accadere ci si domanda quale possa essere l’utilità di costruire un IA, magari incorporata in un robot, con delle caratteristiche completamente umane. Gli esseri umani nel corso della storia si sono affidati agli utensili semplici prima, e alle macchine poi perché queste servivano a compensare i loro limiti.
Un coltello taglia meglio di unghie e denti, e un telaio meccanico tesse più rapidamente e senza stancarsi rispetto ad una tessitrice umana. Noi valorizziamo le macchine perché ci rendono più semplici le cose, ci sollevano dalla fatica eccessiva (gli esseri umani si stancano, le macchine no), perché sono in grado di sopportare pressioni e temperature che il nostro corpo non è in grado di sopportare (pensiamo ad un altoforno) e più in generale estendono le nostre capacità di interazione con l’ambiente naturale e sociale. In sostanza il legame che ci lega alle macchine è più improntato alla complementarità e all’estensione delle capacità umane (augmentation). È quindi privo di senso tecnologico creare una macchina che sia in tutto e per tutto una copia digitale dell’essere umano, dal momento che questo, nei suoi aspetti mentali, risentirebbe dei difetti e dei limiti propri dell’essere umano. C’è anche un altro motivo per cui non è tecnologicamente sensato implementare un’IA completa (nel senso umano del termine) in un device, macchinario o robot. Il principale criterio di progettazione attualmente in uso suggerisce di dotare di intelligenza artificiale una macchina esclusivamente del grado di IA che si ritiene necessario affinché quella macchina svolga il proprio compito in maniera intelligente (secondo quindi una concezione di intelligenza limitata).
Da una ipotetica scavatrice meccanica dotata di IA non ci aspettiamo che rida alle barzellette dei supervisori umani, o li ascolti nelle lunghe lamentele coniugali fornendo consigli e frasi motivazionali[7]. Pertanto, seguendo il principio del rasoio di Occam, è opportuno pensare alle applicazioni di IA che veramente avranno successo con una certa sobrietà nelle applicazioni e nell’estensione dell’ambito di competenze implementate. Ma facendo questo discorso non intendo fare l’errore di buttare il bambino con l’acqua sporca. Esiste infatti un ambito in cui creare una intelligenza artificiale di tipo umano avrebbe un notevole senso. Questo ambito è appunto la ricerca scientifica. La possibilità di ‘costruire’ una simulazione di un essere umano dal nulla, essendo consapevoli di quali componenti vengono inserite e potendo monitorare continuamente e precisamente il funzionamento della stessa rappresenta, a mio parere, una sfida scientifica assolutamente straordinaria. In questo caso l’obiettivo dichiarato è quello di creare una intelligenza artificiale di tipo umano, una sorta di homunculus digitale, componibile e scomponibile infinitamente, con la possibilità di progettare e riprogettare ogni suo componente e testarne il funzionamento nell’ensemble artificiale ha una valenza assolutamente euristica per la psicologia in generale. Le numerose e del tutto legittime restrizioni etiche che si impongono al ricercatore in psicologia quando si trova ad avere a che fare con soggetti sperimentali sarebbero totalmente assenti nel reame delle simulazioni e consentirebbero di progettare e realizzare infiniti esperimenti digitali sia tramite dati e ambienti simulati, sia prendendoli in prestito dai big data. Ho parlato dell’importanza di questa impresa scientifica per lo studio del comportamento per almeno due motivi. Il primo è che quando i ricercatori di IA parlano di intelligenza in realtà intendono il comportamento della macchina nel suo complesso (sempre da una prospettiva software). Pertanto, per l’ottica dell’IA essere intelligenti significa esibire un comportamento intelligente e viceversa. Per fortuna l’ambito dell’IA è rimasto estraneo dalle complesse riflessioni intorno all’esperienza comportamentista in psicologia ed ha quindi una visione più limpida, e se vogliamo più ingenua, del funzionamento dell’intelligenza e dei suoi legami con il comportamento. Quindi una simulazione di intelligenza artificiale ha lo scopo di riprodurre il comportamento umano, ancorché in modo parcellare (ad es. limitatamente al dominio degli scacchi, o al riconoscimento di frasi). È abbastanza evidente come mettendo insieme le diverse applicazioni è possibile intravedere una figura ‘umanoide’, cioè un’intelligenza artificiale che possa simulare comportamenti complessi non solo in domini chiusi e definiti come gli scacchi, ma anche in simulazioni che possano avere una maggiore valenza ecologica per la ricerca.
Nel passare dall’intelligenza (anche sovrumana) dominio-specifica, a forme di intelligenza più complessa la psicologia sperimentale, oltre alla succitata esperienza secolare nello studio dei soggetti umani, ha anche un’arma più direttamente trasferibile nel linguaggio matematico degli studiosi di IA, ovvero la psicologia matematica, come si evince dal pullulare di riviste dedicate al tema[8]. Questa disciplina è un approccio matematico trasversale a tutta la ricerca psicologica che si basa sul modellamento matematico dei processi percettivi, cognitivi, decisionali e motori[9], e sul definire delle relazioni di tipo matematico sotto forma – se possibile – di legge (nel senso in cui è applicata in fisica) tra uno stimolo quantificato e una risposta quantificabile, rappresentata dal comportamento del soggetto (o dei soggetti) al task in esame. In questo senso la psicologia matematica fornisce su un piatto d’argento un armamentario di strumenti e di esperienza a cui i ricercatori dell’IA dovranno attingere se vorranno costruire delle IA con un funzionamento più umano e meno dominio-specifico. Per contro la psicologia matematica, lavorando già su modelli matematici, non subirà uno choc nel confrontarsi con il mondo dell’IA ma anzi la possibilità di implementare modelli matematici tratti dal comportamento umano in una macchina potrà fornire una ulteriore prova della validità del costrutto matematico stesso, contribuendo non poco al progresso della disciplina. Ma queste ricadute non devono essere necessariamente limitate alla psicologia generale. La possibilità, infatti, di simulare molteplici IA in un ambiente virtuale e in interazione tra loro, apre la strada anche agli studi matematici nell’ambito della psicologia sociale. L’infinità versatilità della programmazione intelligente consente di poter realizzare infiniti esperimenti che altrimenti sarebbero rimasti nella categoria degli ‘esperimenti mentali’, a causa di considerazioni pratiche ed etiche. Ovviamente la stessa cosa si potrebbe fare in tentativi di simulazione dell’intelligenza animale, contribuendo in modo significativo ed eticamente non impattante a campi come la psicologia animale e l’etologia. Spero con queste poche righe di aver chiarito il mio pensiero in merito alla straordinaria opportunità di crescita scientifica che l’intelligenza artificiale costituisce per lo psicologo sperimentale soprattutto col crescere della complessità e delle capacità dei sistemi di intelligenza artificiale a cui stiamo già assistendo e che certamente continueranno a verificarsi nel prossimo futuro. Sino ad ora, concludendo, ‘simulare’ l’essere umano era impossibile. Ma un’intelligenza artificiale sufficientemente complessa ed appositamente costruita per questo scopo potrebbe fornirci questo modello psicologico dell’uomo, in modo analogo ai modelli anatomici generali che vengono utilizzati da sempre in anatomia e medicina, e in linea con il movimento della biologia sintetica[10], che ha lo scopo di costruire degli organismi artificiali il cui DNA sia stato interamente sintetizzato, il cui corretto funzionamento ci consentirà di comprendere il complesso macchinario genetico ed epigenetico, ma al contempo anche di sviluppare nuovi prodotti biotecnologici come microrganismi estremamente specializzati ad uso farmaceutico ed industriale, del tutto separati dalle linee biologiche naturali. Lo stesso potrebbe essere per questo ‘Adamo virtuale’.
L’IA ci consente di concentrarci su quello che ci rende più umani
Mentre il top management sembra genericamente entusiasta di fronte all’introduzione massiva dell’IA nelle loro aziende, l’entusiasmo cala bruscamente col discendere nella gerarchia del management aziendale. Questo mi ha fatto venire in mente una situazione in cui mentalmente vogliamo qualcosa ma i nostri piedi non si muovono. È evidente che c’è una profonda resistenza ‘underground’ all’introduzione dell’intelligenza artificiale, specie in un ambito lavorativo, dove l’introduzione dell’IA rischia di minacciare il nostro senso di sicurezza lavorativa, e con esso anche di più. È ovvio che lo studio delle resistenze all’IA rappresenti un tema di studio e di interesse psicologico di per sé, a mio parere anche con valenza diagnostica rispetto all’organizzazione che si studia. Se infatti spogliamo l’IA dei suoi connotati tecnologici e delle relative aspettative, possiamo intenderla come un forte stressor ambientale che agisce sull’ambiente lavorativo dell’organizzazione e pertanto con il potenziale di far emergere, e di qui il loro valore diagnostico, i punti deboli tanto dell’organizzazione quanto delle singole persone coinvolte. Mentre la ricerca in ambito aziendale si è occupata di valutare l’adesione e le aspettative verso l’IA, credo che la ricerca psicologica dovrebbe concentrarsi – e ha gli strumenti per farlo – sui motivi delle resistenze all’ingresso dell’IA in azienda potendone ricavare un diagramma del funzionamento critico delle organizzazioni, e quindi riuscendo ad individuare quali bisogni sono più urgenti e regolare la propria offerta di servizi alle organizzazioni e istituzioni di conseguenza. È evidente, pertanto, che solo questo aspetto meriterebbe ricerche in ambito cyberpsicologico più approfondite.
L’analisi delle paure o ansie relative all’uso dell’IA (ovviamente oltre la mera tecnofobia, che è un fenomeno a parte) ci può fornire delle idee su come sostenere individui e organizzazioni nel passaggio all’adozione dell’IA all’interno delle organizzazioni aziendali. La ricerca aziendale dimostra che le risorse umane, in questo caso i manager, sono perlopiù impegnati in attività di routine di coordinamento e gestione che potrebbero essere facilmente automatizzate. Se la rivoluzione industriale e l’automazione hanno tradizionalmente colpito i ‘colletti blu’, l’avvento delle tecnologie intelligenti sembra colpire direttamente i ‘colletti bianchi’, che svolgono quelle attività intellettuali che tradizionalmente si consideravano esclusivo dominio degli esseri umani e assolutamente non automatizzabili. La ricerca in ambito aziendale suggerisce che i manager, liberati dalle incombenze pratiche del quotidiano dall’IA, potranno dedicarsi al ‘vero’ lavoro, cioè svolgere attività a maggiore valore aggiunto (per l’azienda). Tuttavia, l’analisi psicologica dei task che questi manager dovranno intraprendere lascia pensare che verranno coinvolte attività e abilità a tutt’oggi sottoutilizzate o per nulla utilizzate, lasciando intravedere un gap tra il ‘manager ideale dell’era dell’IA’ e le risorse umane attualmente presenti nell’organizzazione. Se a livello individuale l’organizzazione può decidere di fare a meno delle risorse che, in questa nuova configurazione, appaiono meno appetibili, è anche vero che l’eliminazione di massa del management intermedio e di prima linea (quelli che svolgono maggiormente compiti routinari di gestione) non può essere una solida strategia aziendale. Si renderà quindi necessario fornire al management quegli skills psicologici che saranno sempre più richiesti nelle loro future mansioni riorganizzate e che non è lecito dare per scontato. Anche se questi skill fossero presenti, è evidente che il loro ridotto utilizzo nelle mansioni consolidate potrebbe rendere necessario un loro esercizio psicologicamente indotto per poter essere poi autonomamente utilizzate dal lavoratore nel suo contesto lavorativo ‘aumentato’. Gli strumenti della psicologia positiva applicata alle organizzazioni sembrano particolarmente promettenti nell’ottica generale di un empowerment della risorsa umana in azienda. Paradossalmente, l’introduzione dell’IA in azienda ci ‘costringe’ ad esercitare e valorizzare il nostro lato più umano, come le abilità interpersonali, il problem solving, le abilità di mediazione, la capacità di comunicazione, l’empatia ed altre. Le potenziali ricadute sul miglioramento del clima organizzativo (anche e non solo in chiave anti-mobbing) contestualmente all’introduzione dell’IA potrebbero rendere le organizzazioni non solo più efficienti e produttive (grazie alla combinazione virtuosa di IA e talenti individuali) ma anche di essere una happy organization, cioè una organizzazione che abbia a cuore la felicità e la soddisfazione dei dipendenti nel momento in cui questi fattori umani vanno a rafforzare la componente umana del rapporto uomo-IA, con benefici esponenziali per l’azienda in termini di competitività e produttività. In sostanza potrebbe crearsi uno scenario in cui le aziende riescano a trarre benefici quantificabili dalla componente psicologica, sociale ed emotiva della risorsa umana e pertanto potrebbero essere interessati a investimenti per potenziare la stessa. Questo scenario se da un lato è molto favorevole alla figura dello psicologo in azienda, dall’altra richiederà allo stesso di colmare il gap informativo sia sulla tecnologia IA che sui ‘nuovi skill’ richiesti dal manager ‘del futuro’. Spero di aver dimostrato con queste poche righe come l’introduzione dell’IA nelle organizzazioni e nelle istituzioni possa essere da una parte un momento psicologicamente delicato per le organizzazioni stesse, dall’altro una potente cartina tornasole di un’organizzazione sotto stress (ancorché uno stress ‘positivo’), in grado di rilevarne le criticità in modo esplicito e di fornire allo psicologo delle organizzazioni delle informazioni utili ai fini diagnostici e di intervento proattivo.
La cooperazione uomo-IA è il passo successivo della Human-Machine Cooperation
L’ultimo punto, non certo per importanza, che ha suscitato la mia attenzione è l’emergere nel campo dell’interazione uomo-macchina (HMI) di un paradigma aggiornato all’avvento dei sistemi intelligenti. Gli studi di interazione uomo macchina, che affondano le radici nell’ergonomia e in particolare nell’ergonomia cognitiva dal punto di vista psicologico, avevano a che fare con l’uomo coinvolto in compiti di coordinamento e gestione di uno o più apparati tecnologici (pensiamo all’avionica per esempio) da parte dell’operatore umano. L’idea è che le macchine fossero affidabili sino all’estremo ma stupide, e fosse responsabilità dell’essere umano evitare che le macchine facessero degli errori, anche grossolani. L’automazione dei processi di pensiero porta l’interazione uomo-macchina ad un livello più alto. L’uomo ora può addestrare la macchina affinché controlli sé stessa ed eviti errori, con una accuratezza che è in grado di superare quella del controllore umano. Ma non è questo il punto innovativo. Infatti, in questa prospettiva l’attenzione è sempre incentrata sul controllo, prima dell’uomo su un sistema non intelligente, poi su un sistema intelligente. Tuttavia, a differenza di prima, l’uomo può ora ‘comunicare’ con la macchina, fosse anche per esempi, affinché essa faccia quello che l’uomo desideri che faccia e nel momento in cui la complessità dell’operazione richiesta supera la sua possibilità di essere implementata in una serie di operazioni semplici (ad es. una sequenza di bottoni). La capacità della macchina di apprendere la rende un ‘utensile universale’ che può essere addestrato a vari compiti mantenendo un hardware pressoché identico o simile, mentre in precedenza ogni nuova funzione richiedeva l’adeguamento dell’hardware (ad es. un cambio nella configurazione del quadro comandi del pilota).
Questa flessibilità dell’IA, o di macchine che implementano a vari livelli l’IA, consente di allentare il tradizionale rapporto padrone-schiavo tra uomo e macchina, e apre all’idea che i due sistemi intelligenti coinvolti, uno umano e uno artificiale, possano in realtà collaborare per il raggiungimento di un obiettivo. Il giocatore di scacchi più forte del mondo ad es. non è un computer, ma un ‘centauro’, ovvero un giocatore umano esperto di scacchi che usa un IA.
Si viene pertanto a creare uno scenario in cui saranno gli ‘ibridi’ uomo computer a realizzare gli obiettivi più performanti e saranno le nuove aziende ‘ibride’ a fare lo stesso in ambito industriale, dei servizi e nella società in generale. La formula vincente potrebbe quindi essere uomo + macchina. La cooperazione uomo macchina è una interazione emergente che a mio parere necessita uno studio dedicato da parte della cyberpsicologia, sia nei suoi connotati ergonomici legati a singole applicazioni o tipi di applicazioni, che nei suoi connotati generali e teorici. La complessità della società globale di oggi con i suoi 7 miliardi e mezzo di abitanti e un pianeta con delle risorse generose ma limitate pone delle sfide all’umanità assolutamente inedite per la storia dell’uomo sulla terra. È improbabile che la nostra biologia e il nostro retaggio genetico possano avere le risposte di cui hai bisogno l’umanità in questo specifico frangente storico.
Conclusioni
A prescindere quindi dalle valenze che attribuiamo all’IA (siano esse positive o negative) è probabile che l’essere umano sarà suo malgrado costretto a divenire post-umano e l’ibridazione con le macchine sarà probabilmente un passo necessario per far fronte alle molteplici e impellenti sfide del ventunesimo secolo. Accantonando gli scenari cibernetici alla Matrix, la cooperazione uomo macchina sembra la forma più realistica e possibile di ibridazione uomo-macchina (e non richiede una presa USB sulla nuca!). Ma come questa cooperazione prenderà piede, che sfide essa comporta per l’uomo (prima ancora che per la macchina), quali elementi (nell’uomo o nella macchina, o in entrambi) sono vincenti per una cooperazione produttiva, quali competenze sono richieste all’uomo e quali non saranno più necessarie sono tutti temi che si prestano ad un’analisi psicologica dettagliata della cooperazione uomo-macchina. Spero con questi tre punti di aver suggerito alcuni spunti di interesse e di ricerca nell’ambito IA che possano essere di interesse per varie figure psicologiche (lo psicologo sperimentale, lo psicologo delle organizzazioni e l’ergonomista cognitivo) e di contribuire nel mio piccolo ad incoraggiare la psicologia ad occuparsi maggiormente di quello che succede nell’ambito IA (e viceversa naturalmente). Consapevole che i problemi complessi richiedano un approccio spesso multidisciplinare, sono abbastanza convinto che questo mio desiderio troverà una qualche realizzazione in futuro che spero prossimo. Personalmente condivido una visione in cui esseri umani e artificiali saranno legati sempre più intimamente. Le macchine, con le loro proprie peculiarità, potranno fornire il sostegno da una società sempre più complessa e con molteplici bisogni a cui le persone fisiche non riescono più, o non vogliono più, fornire risposte sociali. In passato una società come la nostra, giunta all’acme dello sviluppo, aveva davanti a sé soltanto il declino inevitabile. Forse, affidandoci all’IA, avremmo la possibilità di evitare questo fato (almeno per ora), per giungere ad un mondo che non è più solo quello naturale, non è, non sarà, e non dovrà mai essere solo artificiale ma sarà una società ibrida, di una specie nuova mai vista prima.
Concludo con una citazione di Donna Haraway, sul valore trasformativo e simbolico della tecnologia:
Technology is not neutral. We’re inside of what we make, and it’s inside of us.
[La tecnologia non è neutrale. Noi siamo dentro ciò che facciamo, e ciò che facciamo è dentro di noi. Donna Haraway – A Cyborg Manifesto]
Bibliografia
- Bughin, Jacques, Jeongmin Seong, James Manyika, Michael Chui, e Raoul Joshi. «Notes from the AI frontier: Modeling the impact of AI on the world economy». McKinsey Global Quaterly, 2018.
- Carrero, Gustavo, Joel Makin, e Peter Malinowski. «A mathematical model for the dynamics of happiness. Mathematical Biosciences and Engineering». AIMS Press, 2022.
- Cheatham, Benjamin, Kia Javanmardian, e Samandari Hamid. «Confronting the risks of artificial intelligence». McKinsey Global Quaterly, 2019.
- Pennisi, Elizabeth. «Synthetic genome brings new life to bacterium». Science, 2010.
- Wittgenstein, «Ludwig. Tractatus Logico-philosophicus». Torino: Einaudi, 2009.
Bibliografia secondaria
- Archibald, Christopher, e Delma Nieves-Rivera. «Estimating Agent Skill in Continuous Action Domains». Journal of Artificial Intelligence Research. AI Access Foundation, 10 maggio 2024. doi:10.1613/jair.1.15326.
- Garg, Jugal, e Aniket Murhekar. «Computing Pareto-Optimal and Almost Envy-Free Allocations of Indivisible Goods». Journal of Artificial Intelligence Research. AI Access Foundation, 10 maggio 2024. doi:10.1613/jair.1.15414.
- Sublime, Jérémie. «The AI Race: Why Current Neural Network-Based Architectures Are a Poor Basis for Artificial General Intelligence». Journal of Artificial Intelligence Research. AI Access Foundation, 10 gennaio 2024. doi:10.1613/jair.1.15315.
- Street, Charlie, Bruno Lacerda, Manuel Mühlig, e Nick Hawes. «Right Place, Right Time: Proactive Multi-Robot Task Allocation Under Spatiotemporal Uncertainty». Journal of Artificial Intelligence Research. AI Access Foundation, 11 gennaio 2024. doi:10.1613/jair.1.15057.
- Retzlaff, Carl Orge, Srijita Das, Christabel Wayllace, Payam Mousavi, Mohammad Afshari, Tianpei Yang, Anna Saranti, Alessa Angerschmid, Matthew E. Taylor, e Andreas Holzinger. «Human-in-the-Loop Reinforcement Learning: A Survey and Position on Requirements, Challenges, and Opportunities». Journal of Artificial Intelligence Research. AI Access Foundation, 30 gennaio 2024. doi:10.1613/jair.1.15348.
- Franceschelli, Giorgio, e Mirco Musolesi. «Reinforcement Learning for Generative AI: State of the Art, Opportunities and Open Research Challenges». Journal of Artificial Intelligence Research. AI Access Foundation, 6 febbraio 2024. doi:10.1613/jair.1.15278.
- Peters, Uwe, e Mary Carman. «Cultural Bias in Explainable AI Research: A Systematic Analysis». Journal of Artificial Intelligence Research. AI Access Foundation, 28 marzo 2024. doi:10.1613/jair.1.14888.
- OECD. «Defining AI Incidents and Related Terms». OECD Artificial Intelligence Papers. Organisation for Economic Co-Operation and Development (OECD), 6 maggio 2024. doi:10.1787/d1a8d965-en.
- Filippucci, Francesco, Peter Gal, Cecilia Jona-Lasinio, Alvaro Leandro e Giuseppe Nicoletti. «The Impact of Artificial Intelligence on Productivity, Distribution and Growth». OECD Artificial Intelligence Papers. Organisation for Economic Co-Operation and Development (OECD), 16 aprile 2024. doi:10.1787/8d900037-en.
- Andrew, Green. «Artificial Intelligence and the Changing Demand for Skills in the Labour Market». OECD Artificial Intelligence Papers. Organisation for Economic Co-Operation and Development (OECD), 10 aprile 2024. doi:10.1787/88684e36-en.
- Alexandre, Georgieff. «Artificial Intelligence and Wage Inequality». OECD Artificial Intelligence Papers. Organisation for Economic Co-Operation and Development (OECD), 10 aprile 2024. doi:10.1787/bf98a45c-en.
- Gavin, Ugale e Cameron Hall. «Generative AI for Anti-Corruption and Integrity in Government». OECD Artificial Intelligence Papers. Organisation for Economic Co-Operation and Development (OECD), 22 marzo 2024. doi:10.1787/657a185a-en.
- OECD: «Using AI in the Workplace». OECD Artificial Intelligence Papers. Organisation for Economic Co-Operation and Development (OECD), 15 marzo 2024. doi:10.1787/73d417f9-en.
- Brian, Anderson ed Eric Sutherland. «Collective Action for Responsible AI in Health». OECD Artificial Intelligence Papers. Organisation for Economic Co-Operation and Development (OECD), 19 gennaio 2024. doi:10.1787/f2050177-en.
- Floridi, Luciano, Federico Cabitza. Intelligenza artificiale. L’uso delle nuove macchine. Milano: Bompiani, 2021.
- Floridi, Luciano. La rivoluzione dell’informazione. Torino: Codice, 2012.
- Floridi, Luciano. Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide. Milano: Raffaello Cortina Editore, 2022.
- Floridi, Luciano. Pensare l’infosfera. La filosofia come design concettuale. Milano: Raffaello Cortina Editore, 2020.
- Floridi, Luciano. La quarta rivoluzione. Come l’infosfera sta trasformando il mondo. Milano: Raffaello Cortina Editore, 2017.
Bibliografia secondaria da ArXiv
[archivio per bozze definitive, pre revisione paritaria (preprint) e post revisione paritaria (postprint) di articoli scientifici in fisica, matematica, informatica e biologia accessibile via Internet]
- Wray, Steven J. Jones Robert E. «Toward Constraint Compliant Goal Formulation and Planning». arXiv, 2024. doi:10.48550/ARXIV.2405.12862.
- Jakubowski, Jakub, Natalia Wojak-Strzelecka, Rita P. Ribeiro, Sepideh Pashami, Szymon Bobek, Joao Gama, e Grzegorz J Nalepa. «Artificial Intelligence Approaches for Predictive Maintenance in the Steel Industry: A Survey». arXiv, 2024. doi:10.48550/ARXIV.2405.12785.
[1]Si veda: Bughin, Jacques, Jeongmin Seong, James Manyika, Michael Chui, e Raoul Joshi. «Notes from the AI frontier: Modeling the impact of AI on the world economy». McKinsey Global Quaterly, 2018.
[2]Cheatham, Benjamin, Kia Javanmardian, e Hamid Samandari. «Confronting the risks of artificial intelligence». McKinsey Quarterly, 1-9, 2019.
L’articolo è pubblicato sul McKinsey Quaterly che è l’organo di stampa del McKinsey Global Institute, ovvero il più grande think-thank del mondo, leader nelle quote di mercato dei suoi settori di specializzazione che sono la consulenza economica, finanziaria e aziendale su scala globale. Particolarmente rilevante per questo tipo di società è individuare le nuove tendenze sottese ai cicli economici futuri e analizzarne ed evidenziarne le criticità.
[3] L’AI Act in Italia è già diventato legge. Pubblicato in Gazzetta ufficiale, il Regolamento del Parlamento europeo e del Consiglio sull’Intelligenza Artificiale (Reg. UE 2024/1689) è entrato in vigore il 1° agosto 2024. Qui sotto riporto il link al documento in italiano:
[4]Queste affermazioni di Elon Musk sono state riportate in vari contesti mediatici, non direttamente in un articolo di The Guardian, che comunque le riprende. Infatti, queste affermazioni, soprattutto la prima frase, sono state fatte in un commento su Edge.org e riprese da numerosi siti, tra cui TweakTown e Observer. Tuttavia, The Guardian ha trattato temi simili e ha spesso citato Musk su argomenti riguardanti l’intelligenza artificiale.
[5]La nascita della psicologia scientifica viene fatta coincidere con il laboratorio di psicologia sperimentale di Lipsia nel 1876 ad opera dello psicologo e filosofo Wilhelm Wundt.
[6]Si pensi, ad esempio, al contributo di Wittgenstein nel suo Tractatus Logico-philosophicus (1921) allo sviluppo della logica elettronica.
[7]Alan Turing diceva che una macchina totalmente infallibile non può essere anche intelligente.
[8]Un esempio fra tanti: https://www.journals.elsevier.com/journal-of-mathematical-psychology, ultima visita del sito web: 22 maggio 2024.
[9]Un esempio in: Carrero, Gustavo, Joel Makin, e Peter Malinowski. «A mathematical model for the dynamics of happiness. Mathematical Biosciences and Engineering». AIMS Press, 2022.
[10] Pennisi, E. Synthetic genome brings new life to bacterium, Science,2010.