L'intelligenza artificiale sta progredendo rapidamente, con algoritmi che riescono a produrre testi e immagini sempre più convincenti. Tuttavia, è importante chiedersi se ci sia più di un semplice copia-incolla in queste creazioni. Scopriamo insieme le ultime tendenze nella ricerca sull'IA e cosa ci riserva il futuro.

Immagina di chiedere a un computer di creare un dipinto digitale o una poesia e di ottenere esattamente ciò che hai richiesto. O di chattare con esso su vari argomenti, avendo la sensazione di interagire realmente. Quello che una volta era fantascienza sta diventando realtà. A giugno, l'ingegnere di Google Blake Lemoine ha dichiarato al Washington Post di essere convinto che il chatbot AI di Google, LaMDA, fosse cosciente. 'Riconosco una persona quando parlo con essa', ha detto Lemoine. Ecco il dilemma: con gli algoritmi che diventano sempre più bravi a produrre 'output' che una volta pensavamo fossero tipicamente umani, è facile lasciarsi abbagliare. Tuttavia, non dobbiamo confondere queste capacità con la consapevolezza o l'intelligenza umana. La ricerca sull'IA sta convergendo verso un approccio che risolve molti problemi che richiedevano soluzioni specifiche o pezzo per pezzo: addestrare grandi modelli di machine learning su enormi quantità di dati per svolgere una vasta gamma di compiti per i quali non sono stati progettati esplicitamente. Un gruppo di ricercatori di Stanford ha coniato l'espressione 'modelli di base' per descrivere questa tendenza, sebbene potremmo preferire l'etichetta più neutra 'grandi modelli pre-addestrati', che si riferisce a una famiglia di modelli con caratteristiche importanti. Vengono addestrati attraverso l'auto-supervisione, senza affidarsi all'etichettatura manuale dei dati da parte degli esseri umani, e possono adattarsi a compiti nuovi senza ulteriore addestramento. Inoltre, l'aumento delle dimensioni e dei dati di addestramento ha dimostrato di essere sorprendentemente efficace nel migliorare le loro capacità, senza la necessità di modificare sostanzialmente l'architettura sottostante. Di conseguenza, gran parte dei progressi recenti nell'IA è stata guidata dalla pura abilità ingegneristica, piuttosto che dall'innovazione teorica rivoluzionaria. Alcuni grandi modelli pre-addestrati sono addestrati esclusivamente sul testo. In pochi anni, questi modelli linguistici hanno dimostrato una sorprendente capacità di scrivere paragrafi coerenti, spiegare battute e risolvere problemi matematici. Ormai, tutte le grandi aziende tecnologiche che sono all'avanguardia nella ricerca sull'IA hanno investito ingenti somme nell'addestramento dei propri modelli linguistici di grandi dimensioni. OpenAI ha aperto la strada nel 2020 con GPT-3, seguito di recente da una serie di altri modelli giganteschi, come PaLM di Google, OPT di Meta (ex Facebook) e Chinchilla di DeepMind. Dobbiamo chiederci: c'è di più in questi algoritmi rispetto a una mera copia senza pensiero?