Il lancio di ChatGPT. Un capitolo nuovo sul fronte dell’intelligenza artificiale

L’applicazione di OpenAI apre un fronte del tutto nuovo sul fronte dell’intelligenza artificiale.

L’intelligenza artificiale è sicuramente tra gli argomenti di tendenza del momento, grazie soprattutto al lancio della piattaforma di OpenAI che ha messo a disposizione su internet uno strumento per utilizzare e sperimentare molto concretamente un esempio delle enormi possibilità di questa strumentazione.

Siamo di fronte a una nuova pietra miliare della rivoluzione tecnologica? Dal punto di vista della materia in sé probabilmente no perché stiamo parlando di una tappa di un processo in corso da anni e che sta impegnando milioni di persone a livello globale. A livello simbolico e iconografico invece, è plausibile rispondere con un sì, perché ogni passaggio epocale ha bisogno del suo monumento.

 

La disponibilità dei dati non potrebbe essere utilizzata senza gli strumenti di intelligenza artificiale

Abbiamo iniziato da qualche mese a ragionare assieme su quanto la crescita esponenziale della quantità di dati stia modificando radicalmente molti scenari compresi quello dei rischi. E così arrivato il momento di introdurre il tema dell’intelligenza artificiale, quello del machine learning, o dei big dati senza i quali tutta questa disponibilità rimarrebbe orfana e inutilizzabile.

In realtà è difficile rendersi effettivamente conto di quale sia lo stato reale di performance assicurata dai sistemi di intelligenza artificiale sia perché stiamo parlando di una materia molto tecnica, sia perché siamo naturalmente portati a proiettare la materia in un futuro neanche tanto vicino. Al contrario in molti campi l’intelligenza artificiale è già largamente entrata negli strumenti quotidiani di consumo oltre che in diversi processi sociali. Un esempio è quello del riconoscimento facciale.

 

Tanti vantaggi, ma anche tanti rischi

Purtroppo come tutto ciò che riguarda l’intelligenza artificiale, anche le applicazioni che ho appena richiamato si prestano a operare riproducendo le distorsioni presenti nella realtà e che sono semmai amplificate nei big data, che costituiscono i sistemi di apprendimento dell’intelligenza artificiale. Pensiamo ad esempio all’associazione di alcuni gruppi etnici con più elevati tassi di criminalità che sono fissati all’interno dei sistemi di riconoscimento facciale delle autorità di polizia dei paesi che hanno iniziato a utilizzare questa metodica.

In fin dei conti i sistemi di apprendimento automatico devono lavorare di partenza sul più grande database esistente cioè sull’immensa mole di dati, in questi casi visuali, disponibili sul web. E da qui partire per raffinare i propri sistemi di riconoscimento e azione. Insomma ogni distorsione crea un circuito chiuso destinato ad amplificare i cosiddetti bias. Mi ha colpito a questo proposito un articolo proposto da Melissa Heikkila, una giornalista della rivista Technology Review del prestigioso MIT. La Hekkila racconta di un suo esperimento condotto su Lensa1, una popolare app che consente di creare avatar partendo da una propria immagine. L’esperimento si è concluso nel peggiore dei modi: dei cento Avatar creati sedici la rappresentavano in topless e in pose sessualmente caratterizzanti. Ciò ovviamente a differenza di quanto avvenuto per i suoi colleghi maschi, ritratti invece in personaggi eroici e molto più edificanti. In conclusione quindi questo trattamento deriva, secondo la redattrice, dal fatto che “Ho origini asiatiche e questa sembra essere l’unica cosa che il modello AI ha raccolto dai miei selfie. Ho ottenuto immagini di donne asiatiche generiche chiaramente modellate su personaggi di videogiochi. O molto probabilmente porno, considerando la parte considerevole dei miei avatar che erano nudi o mostravano molta pelle2.

 

“Alla corte del re”

Ancor più pericoloso è l’uso distorto che ne potrebbero fare alcuni governi. Non a caso la Cina ha ormai sistematicamente introdotto i sistemi di bio-self sia, come nel caso del sistema di social credits3, in una gigantesca operazione di controllo sociale nei confronti dell’intera popolazione che nella repressione di particolari gruppi, nello specifico quello della minoranza degli Uiguiri.

Il sistema di credito sociale è la componente essenziale dell’apparato del controllo di massa dei propri cittadini organizzato dal governo cinese. Ad ogni cittadino viene assegnato un punteggio che può aumentare o crescere a secondo dei propri comportamenti. In base al livello ottenuto il sistema promuove o discrimina l’accesso a una serie di servizi, dall’accesso alle scuole per i figli, alla sanità fino ai viaggi. Il credit rating non si limita a sanzionare i comportamenti politici ma entra molto più nel profondo della vita dei singoli individui. Grazie ai big data vengono presi in considerazione tutti gli aspetti, come ad esempio il comportamento di consumo, o attraverso la localizzazione dei cellulari, gli spostamenti e con il riconoscimento facciale automatico delle centinaia di migliaia di telecamere interconnesse, il sistema relazionale di ognuno.

 

ChatGPT

Avremo comunque modo di tornare sulla questione che occuperà sicuramente grande spazio in futuro per concludere questa comunicazione parlando di ChatGPT, l’app in questione diventata una vera e propria celebrità in queste settimane. GPT sta per Generative Pre-trained Transformer Version 3 (GPT-3) Come abbiamo detto stiamo parlando di un applicazione di recentissimo rilascio (novembre 2022) proposta da una piattaforma di nome OpenAI sostenuta dal solito Elon Musk assieme ad altri imprenditori.

Il suo campo specifico di applicazione è quello del Natural Language Processing, cioè dell’utilizzo della intelligenza artificiale non solo per creare delle espressioni di linguaggio “naturale”, ma anche di collocare le stesse entro un dialogo aperto con qualsiasi interlocutore. Un processo che nasce da un sistema statistico che calcola la probabilità di distribuzione delle parole che “seguono”, data una certa frase di partenza. Ma che punta ad imitare il linguaggio naturale in quanto ingloba tutti gli elementi di contesto compreso quello che è la sentiment analysis. GPT-3 è stato “allenato” a partire da un database di partenza contenente 57 miliardi di parole e 175 miliardi di parametri; un sistema 10 volte più potente della precedente versione GPT-24.

Il merito di questa app è quello di “democratizzare” per la prima volta l’accesso a questo sistema. Sarà forse per il ruolo dei personaggi coinvolti, sarà per l’interesse crescente per la materia ma il suo lancio è stato uno straordinario successo, con un milione di utenti registrati la prima settimana dopo il lancio. E’ vero che erano altri tempi ma Facebook raggiunse il milione di utenti dopo 10 mesi dal lancio nel febbraio del 2004. Secondo Reuters l’applicazione ha raggiunto 100 milioni di utenti in gennaio a un mese dal lancio “diventando la applicazione di consumo ad avere conosciuto la più rapida crescita nella storia”5.

Il lancio dell’applicazione ha peraltro generato un effetto valanga obbligando gli altri big del settore ad accelerare il rilascio delle proprie applicazioni.

Un’intervista leggera … ma neanche troppo

In conclusione come promesso vorrei proporvi un esperimento per avere un assaggio delle potenzialità e in parte della sofisticazione offerta da questa applicazione. Ho realizzato quella che potrebbe essere una sorta di intervista sui rischi ponendo una serie di domande al sistema in test. Il risultato che ripropongo è sicuramente meno fluente dell’originale prodotto dalla macchina in lingua inglese e che ho tradotto per maggiore semplicità.

Ciao GPT, vorrei parlare con te sul tema del rischio (in corsivo le risposte fornite dalla applicazione)

Certamente ! Sarei felice di parlare con te del rischio. Cosa vorresti sapere o discutere nello specifico sulla questione?

 

Penso che ci sia stato un aumento dei rischi in tutti i campi, nell’economia, nella finanza, nella società, ecc.

Sì hai ragione. I rischi fanno parte della vita e possono essere presenti in varie forme in diversi campi. Il mondo è in costante cambiamento ed evoluzione e, di conseguenza, emergono nuovi rischi mentre altri possono affievolirsi. Anche la maggiore complessità e interconnessione dei vari sistemi può contribuire alla crescente percezione del rischio in vari ambiti.

Nella finanza, ad esempio, la crisi finanziaria globale del 2008 ha portato a una maggiore consapevolezza dei potenziali rischi associati a determinati prodotti e pratiche finanziarie. Nell’attuale era digitale sono emerse nuove forme di rischio, come le minacce informatiche e le violazioni dei dati.

È importante che individui e organizzazioni valutino e gestiscano continuamente i rischi, oltre a disporre di piani di emergenza nel caso in cui le cose non vadano come previsto. Ciò può aiutare a mitigare il potenziale impatto dei rischi e aumentare la resilienza.

 

Quindi possiamo dire che i rischi sono più frequenti e più catastrofici

È difficile dire se i rischi stiano diventando complessivamente più frequenti o più catastrofici, poiché diversi tipi di rischi possono presentare tendenze diverse. Tuttavia, alcuni esperti sostengono che la crescente interconnessione di vari sistemi e la velocità con cui le informazioni e gli eventi possono diffondersi a livello globale possono far sembrare che i rischi stiano diventando più frequenti e catastrofici.

Inoltre, le conseguenze di alcuni rischi possono sembrare più catastrofiche a causa del maggiore impatto che gli eventi possono avere nel nostro mondo interconnesso. Ad esempio, l’impatto di un disastro naturale può essere amplificato dal fatto che le infrastrutture critiche e le catene di approvvigionamento sono più interconnesse che mai.

Tuttavia, vale anche la pena notare che sono stati compiuti progressi in alcune aree in termini di riduzione del rischio. Ad esempio, i progressi tecnologici e i miglioramenti nella gestione delle emergenze e nella pianificazione della risposta hanno contribuito a ridurre l’impatto di alcuni tipi di rischi, come i disastri naturali.

 

L’aumento del rischio è causato dall’aumento dell’incertezza?

Sì, l’incertezza può svolgere un ruolo significativo nella percezione del rischio. L’incertezza sorge quando vi è una mancanza di informazioni o di conoscenze su un potenziale risultato o evento. Più una situazione è incerta, maggiore può essere il rischio percepito.

Ad esempio, nei mercati finanziari, l’incertezza sullo stato futuro dell’economia o sulla stabilità di un determinato paese può portare a un aumento del rischio percepito per gli investitori e ciò può determinare cambiamenti nel comportamento degli investimenti. Allo stesso modo, anche l’incertezza sui potenziali impatti di una nuova tecnologia o politica può portare a un aumento del rischio percepito.

Vale la pena notare che l’incertezza non è l’unico fattore che può aumentare il rischio percepito. Anche altri fattori, come l’entità delle potenziali perdite, la probabilità che un evento si verifichi e la velocità con cui potrebbe verificarsi, possono contribuire alla percezione complessiva del rischio.

In conclusione, mentre l’incertezza può svolgere un ruolo nella percezione del rischio, è importante adottare un approccio globale alla valutazione del rischio che consideri tutti i fattori rilevanti, inclusa l’incertezza.

 

Per finire, l’intelligenza artificiale potrebbe aumentare l’incertezza e i rischi

L’intelligenza artificiale (IA) ha il potenziale per aumentare l’incertezza e i rischi in determinati settori, in particolare quando i sistemi di intelligenza artificiale diventano più avanzati e ampiamente utilizzati. Per esempio:

  • Pregiudizi ed equità: i sistemi di intelligenza artificiale possono perpetuare e amplificare pregiudizi e pratiche discriminatorie esistenti, portando a risultati potenzialmente dannosi.
  • Perdita di posti di lavoro: l’adozione diffusa dell’IA potrebbe portare a perdita di posti di lavoro e disordini sociali, poiché i lavoratori in alcuni settori vengono sostituiti dall’automazione.
  • Sicurezza: man mano che i sistemi di intelligenza artificiale diventano più integrati nelle infrastrutture critiche e nei processi decisionali, possono diventare bersagli di attacchi informatici, con conseguenze potenzialmente catastrofiche.

Tuttavia, l’intelligenza artificiale ha anche il potenziale per mitigare il rischio e l’incertezza in altri domini, fornendo informazioni più accurate e tempestive, automatizzando attività ripetitive e pericolose e consentendo un processo decisionale più informato.

In conclusione, mentre l’intelligenza artificiale ha il potenziale per aumentare l’incertezza e i rischi in determinati domini, è importante affrontare lo sviluppo e l’implementazione dei sistemi di intelligenza artificiale con cautela e considerare attentamente i potenziali rischi e benefici. Inoltre, è importante continuare a monitorare e valutare l’impatto dell’IA man mano che si evolve e diventa più diffuso e apportare le modifiche necessarie per garantire che i vantaggi dell’IA vengano realizzati riducendo al minimo i potenziali rischi e le conseguenze negative.

 

E qui termina la pseudo intervista. Non so se siete d’accordo, ma questa lettura è stata totalmente sorprendente, almeno per me. Ne sono rimasto in qualche modo affascinato. E ritorno così a riprovare nuove interrogazioni. Penso proprio che dovremo riparlarne.

 

Di Raffaele Bruni

Membro del Consiglio di Amministrazione e di Banca di San Marino

Partner di BM&C Società Benefit

 

//////////

1 Tutto quello che c’è da sapere per usare Lensa Ai in sicurezza, Wired – https://www.wired.it/article/lensa-ai-come-usarla-in-sicurezza/

2 Melissa Heikkila – The viral AI avatar app Lensa undressed me—without my consent – MIT Technology Review, 12 dicembre 2022 – https://www.technologyreview.com/2022/12/12/1064751/the-viral-ai-avatar-app-lensa-undressed-me-without-my-consent/

3 Esiste ormai una vasta pubblicistica scientifica sull’argomento anche disponibile sul web. Per un approfondimento più generale delle implicazioni di questi sistemi di screening di massa si rimanda a: Anne S. Y. Cheung e Yongxi Chen, “From Datafication to Data State: Making Sense of China’s Social Credit System and Its Implications”, Law & Social Inquiry , Volume 47 , Issue 4 , November 2022 , pp. 1137 – 1171, Cambridge University Press

4 Per chi volesse approfondire, Steve Tingiris, Exploring GPT-3, Packr Publishing 2021

5 Krystal Hu, ChatGPT sets record for fastest-growing user base – analyst note, Reuters 2 febbraio 2023 – https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/