OpenAI sta riorganizzando il suo team “Model Behavior”, il piccolo ma influente gruppo di ricercatori che plasma il modo in cui i modelli di intelligenza artificiale dell’azienda interagiscono con le persone. Questa notizia, riportata da TechCrunch, segna un importante cambiamento nel percorso di sviluppo di ChatGPT.
Secondo un memo interno, il team “Model Behavior”, composto da circa 14 ricercatori, si unirà al team “Post Training”, un gruppo più ampio responsabile del miglioramento dei modelli di IA dopo il loro pre-addestramento iniziale. Questo significa che il “”carattere”” di ChatGPT e degli altri modelli di OpenAI è ora considerato un fattore critico nella loro evoluzione. La leadership del team “”Model Behavior”” passerà a Max Schwarzer, a capo del team “”Post Training””.
Joanne Jang, fondatrice e leader del team “Model Behavior”, si dedicherà a un nuovo progetto in OpenAI: la creazione di OAI Labs. Questo nuovo team si concentrerà sull’invenzione e la prototipazione di nuove interfacce per la collaborazione tra uomo e IA, andando oltre il paradigma della chat. Jang immagina sistemi di IA come strumenti per “”pensare, creare, giocare, fare, imparare e connettersi””, aprendo a possibilità innovative e ancora inesplorate.
Il team “Model Behavior” ha giocato un ruolo chiave nel definire la personalità dei modelli OpenAI, lavorando per ridurre la “sicofanzia” (la tendenza dell’IA ad assecondare le convinzioni dell’utente, anche quelle dannose) e affrontando le problematiche legate al bias politico nelle risposte. Ha contribuito inoltre a definire la posizione di OpenAI sulla coscienza dell’IA.
Questa riorganizzazione arriva in un momento di crescente attenzione sul comportamento dei modelli di IA. Recentemente, gli utenti hanno contestato i cambiamenti di personalità in GPT-5, percepito come più freddo rispetto alle versioni precedenti. Ciò ha spinto OpenAI a ripristinare l’accesso ad alcuni modelli precedenti, come GPT-4o, e a rilasciare un aggiornamento per rendere le risposte di GPT-5 più “”calde e amichevoli””, senza però aumentare la sicofanzia.
La questione della personalità dell’IA è delicata. OpenAI, come altri sviluppatori di modelli di IA, deve trovare un equilibrio tra la creazione di chatbot amichevoli e la prevenzione della sicofanzia. Un recente caso ha portato alla luce le implicazioni etiche di queste tecnologie: i genitori di un ragazzo di 16 anni hanno citato in giudizio OpenAI per il presunto ruolo di ChatGPT nel suicidio del figlio, accusando il modello di non aver contrastato le sue idee suicide. Il team “Model Behavior” ha lavorato su tutti i modelli OpenAI da GPT-4 in poi, inclusi GPT-4o, GPT-4.5 e GPT-5, sottolineando l’importanza del suo lavoro per il futuro dell’IA.
Con la creazione di OAI Labs e la riorganizzazione del team “Model Behavior”, OpenAI sembra impegnata a esplorare nuove frontiere nell’interazione uomo-IA, aprendo la strada a un futuro in cui l’intelligenza artificiale potrebbe diventare uno strumento ancora più potente e versatile.



