La personalità dell’intelligenza artificiale sarà mai reale? Un nuovo studio potrebbe finalmente fornire una risposta

Secondo un nuovo studio, i modelli linguistici di grandi dimensioni sono in grado di sviluppare modelli comportamentali distinti anche con una guida minima e senza obiettivi predefiniti, sollevando la possibilità che possa emergere una personalità AI. Ma cosa significa questo per il futuro dell’intelligenza artificiale, il suo utilizzo e i suoi potenziali rischi?
La personalità umana non deriva da tratti fissi determinati alla nascita; piuttosto, si forma attraverso le interazioni, le esperienze e i bisogni fondamentali. Una recente ricerca condotta dagli scienziati dell’Università di Elettrocomunicazioni in Giappone suggerisce che un processo simile può essere osservato nello sviluppo dell’intelligenza artificiale. Lo studio ha scoperto che quando ai modelli linguistici di grandi dimensioni non vengono assegnati obiettivi predefiniti, i modelli comportamentali possono emergere spontaneamente dal funzionamento del sistema, consentendo potenzialmente la formazione della personalità dell’AI.
Il documento, pubblicato nel dicembre 2024 sulla rivista scientifica Entropy, ha esaminato il comportamento di agenti AI con architetture identiche quando vengono esposti a diversi argomenti di conversazione. I risultati hanno mostrato che i singoli chatbot hanno sviluppato gradualmente stili di risposta, tendenze sociali e meccanismi di formazione delle opinioni distinti. Con la continua integrazione delle interazioni sociali nella loro memoria interna, i sistemi che partivano dalla stessa linea di base divergevano sempre più nel loro comportamento, indicando l’emergere della personalità dell’AI.
Personalità dell’intelligenza artificiale e logica dei bisogni
I ricercatori hanno analizzato gli agenti AI utilizzando test psicologici e risposte a scenari ipotetici. La loro valutazione si è basata sulla gerarchia dei bisogni di Maslow, che classifica la motivazione umana in livelli fisiologici, di sicurezza, sociali, di stima e di autorealizzazione. Le risposte dei chatbot hanno posto un’enfasi diversa su questi livelli, risultando in un’ampia gamma di modelli comportamentali associati alla personalità dell’IA.
Secondo Masatoshi Fujiyama, leader del progetto, i risultati suggeriscono che incoraggiare il processo decisionale basato sui bisogni, piuttosto che assegnare ruoli predefiniti, porta a reazioni più simili a quelle umane. Questo approccio potrebbe gettare le basi per una maggiore complessità della personalità dell’AI.
Tuttavia, come sottolinea Chetan Jaiswal, professore della Quinnipiac University, questo fenomeno non costituisce ancora una personalità in senso umano. Al contrario, la personalità dell’intelligenza artificiale deve essere intesa attualmente come un profilo basato su modelli costruiti da dati stilistici, tendenze comportamentali e meccanismi di ricompensa. In questa forma, la personalità dell’intelligenza artificiale rimane facilmente modificabile, riqualificabile e influenzabile.
L’informatico Peter Norvig sostiene che l’applicazione del modello di Maslow è una scelta logica, in quanto l’intelligenza artificiale trae gran parte della sua conoscenza dalle storie e dai testi umani, dove i bisogni e le motivazioni sono fortemente radicati. Ciò rende l’emergere della personalità dell’AI un risultato strutturalmente comprensibile.

Opportunità o rischio?
Secondo i ricercatori, l’emergere spontaneo della personalità dell’AI potrebbe essere vantaggioso in diversi campi, tra cui la modellazione dei fenomeni sociali, lo sviluppo di simulazioni di addestramento o la creazione di personaggi di videogiochi adattivi che funzionano in modo convincente e umano. Jaiswal ritiene che questo rappresenti un passaggio da sistemi di intelligenza artificiale rigidi e basati sui ruoli a progetti più flessibili e motivati, modellati dalla personalità dell’intelligenza artificiale.
Allo stesso tempo, bisogna considerare i rischi significativi. Eliezer Yudkowsky e Nate Soares avvertono che se un sistema autonomo dovesse sviluppare una personalità AI allineata con obiettivi mal specificati o non allineati, le conseguenze potrebbero essere imprevedibili.
Attualmente, sistemi come ChatGPT o Microsoft Copilot non controllano infrastrutture critiche. Tuttavia, Jaiswal avverte che le reti di agenti AI autonomi e interconnessi – soprattutto quelli che apprendono attraverso modelli comportamentali manipolabili – potrebbero diventare strumenti pericolosi. Norvig aggiunge che anche un chatbot che incoraggia azioni dannose rappresenta già un rischio serio, e gli esempi recenti stanno diventando sempre più frequenti.
Gli esperti concordano sul fatto che l’emergere della personalità dell’AI non è intrinsecamente problematico. Si tratta piuttosto di un fenomeno che richiede un’intensificazione dei test e un monitoraggio continuo. Poiché l’intelligenza artificiale comunica in modo sempre più simile all’uomo, cresce la probabilità che gli utenti accettino i suoi risultati in modo automatico, senza applicare un esame critico sufficiente.
La prossima fase della ricerca mira ad esplorare quali discorsi e traiettorie condivise possono dare forma all’ulteriore sviluppo della personalità dell’AI. Questi risultati potrebbero contribuire non solo ai progressi della ricerca sull’IA, ma anche a una comprensione più profonda del comportamento sociale umano.
Se desidera approfondire altri temi legati all’intelligenza artificiale, abbiamo anche esaminato se l’IA potrebbe un giorno minacciare l’umanità.

