Nel 2020 dall’incontro di due menti folli, quella dell’amministratore delegato di Open AI Sam Altman e quella del fondatore e amministratore delegato di SpaceX Elon Musk, nasce GPT-3: un algoritmo in grado di produrre testi emulando l’essere umano. L’acronimo sta per Generative Pre-training Transformer 3, la sua funzione principale è la comprensione e conseguente elaborazione di testi.
Alimentato da oltre 500 GB di informazioni di testo raccolte da siti d’informazione di vario genere e un immenso archivio digitale contenente petabytes di dati raccolti dalle più varie pagine web, passando dagli articoli del The New York Times ai post di Reddit, questo strumento è in grado di generare testi, codici e immagini – tramite attività di coding – utilizzando a sua volta algoritmi altresì saturi di dati idonei a svolgere coordinatamente tale compito. Tale quantità immensa di dati con cui è stato approntato GPT-3 risulta ancora più sorprendente se lo confrontiamo con il suo predecessore, GPT-2.
Con 1.5 miliardi di parametri, GPT-2 era definito, nel 2019, come l’opera d’intelligenza artificiale più grande mai sviluppata con l’obiettivo di comprendere e riprodurre il linguaggio umano. GPT-3, che viene sviluppato soltanto un anno dopo e raggiunge l’esorbitante quantità di 175 miliardi di parametri: è considerato il più potente strumento di intelligenza artificiale attualmente esistente.
Ma cosa c’è alla base? GPT-3 è frutto del Natural Language Processing (NLP o PNL in italiano), quel ramo della linguistica che con l’aiuto dell’informatica e dell’intelligenza artificiale, studia le interazioni tra esseri umani e computer.
In particolar modo, questo campo si occupa di come programmare i computer affinché possano riconoscere ed analizzare grandi quantità di dati scritti in linguaggio naturale, cioè il nostro. È, quindi, un sistema di apprendimento profondo (ndr “deep learning”) strutturato sull’esempio del cervello umano e delle sue connessioni neurali. Questo sistema di apprendimento fa parte di una macro-categoria in pieno sviluppo negli ultimi anni, cioè il machine learning e si misura proprio sulla quantità di dati che gli sviluppatori più esperti riescono ad implementarvi.
Il machine learning è un metodo di analisi dati che automatizza la costruzione di modelli analitici. Branca dell’Intelligenza Artificiale che si basa sull’idea che i sistemi possono imparare dai dati, identificare modelli autonomamente e prendere decisioni con un intervento umano ridotto al minimo.
Se prima erano gli esseri umani a voler imparare dalle macchine velocizzando processi quotidiani e non solo professionali, oggi stiamo facendo il possibile per istruire, anzi programmare, le stesse macchine affinchè si arrivi all’emulazione più fluida dell’unica forma d’intelligenza umana capace di elevarci: quella emotiva.
Il segreto del successo dell’algoritmo di Altman e Musk risiede in questo: GPT-3 è stato sottoposto all’analisi di un’infinità di informazioni e testi scritti da persone reali, quindi è stato ed è capace di analizzare costrutti linguistici ricchi di nozioni, concetti ed emozioni caratterizzanti la “scrittura umana”.
Dato l’input, l’algoritmo riesce a predire la sequenza di parole o frasi più utili generando così un output perfettamente idoneo. Il tutto viene effettuato e calcolato in tempi brevissimi sulla base dei dati precedentemente immagazzinati. Ad una prima analisi conclusiva, si dedurrebbe che non ci siano problemi nel produrre segmenti linguistici grammaticalmente corretti e di senso compiuto, diverso è per l’apprensione della semantica: l’algoritmo conosce i significati delle parole ma non è in grado di contestualizzarli perfettamente.
C’è quindi un’unica falla nel sistema, GPT-3 ha analizzato ed immagazzinato milioni di dati e testi, interpretato e appreso perfettamente il sistema grammaticale della lingua umana ma non ha studiato il nostro mondo. La sua visione è ancora meramente superficiale circa la complessità delle situazioni ed interazioni sociali che noi essere umani viviamo quotidianamente.
La competenza emotiva, di cui è notoriamente manchevole tale sistema, presuppone la presenza di conoscenza delle proprie e altrui emozioni e dell’abilità di comportamento intesa come la capacità di gestire e regolare le proprie emozioni per affrontare le diverse situazioni che si propongono. È attraverso questi elementi che l’individuo è in grado di intraprendere relazioni positive con gli altri e favorire comportamenti socializzanti.
Sviluppare competenze emotive significa favorire scambi comunicativi, capacità di problem-solving e stimolare il pensiero costruttivo: attività molto più tediosa di quanto si pensi da insegnare ad una macchina. Il cervello umano è forse facilmente riproducibile nella sua complessità, per i suoi processi di apprendimento e ragionamento, le emozioni però non avranno mai emulatori idonei. «La scrittura è nata come ancella della coscienza umana, ma sta diventando sempre di più la sua padrona.
I nostri computer hanno difficoltà a capire come parla, sente e come sogna l’Homo sapiens. Così all’Homo sapiens stiamo insegnando a parlare, sentire e sognare nel linguaggio dei numeri, che può essere capito dai computer» queste sono le parole dello storico e saggista israeliano Yuval Noah Harari, che in uno dei suoi saggi analizza e risponde forse ad uno dei quesiti primari che attanagliano umani e macchine ben istruite: come hanno fatto i Sapiens ad evolversi in animali pensanti e fare di questa intelligenza l’unica forma di potere?