Stop alla sperimentazione sull'intelligenza artificiale: l'appello di Musk, Wozniak e altri mille scienziati e innovatori
L’appello a fermare per almeno sei mesi le sperimentazioni sull’intelligenza artificiale arriva da chi non te l’aspetteresti: oltre 1000 firmatari (1123 al momento in cui scriviamo) tra cui nomi di primissimo piano del mondo dell’innovazione e del capitalismo digitale, oltre che della scienza: Elon Musk, CEO di SpaceX, Tesla e Twitter oltre che (al momento) uomo più ricco del mondo, il co-founder di Apple Steve Wozniak, lo storico e saggista israeliano Yuval Noah Harari, Andrew Yang, fondatore dell’organizzazione non-profit Venture for America, il co-founder di Skype Jaan Tallinn, quello di Pinterest Evan Sharp. I primi firmatari sono Yoshua Bengio, della University of Montréal e a capo del Montreal Institute for Learning Algorithms, e Stuart Russell, docente a Berkeley di Computer Science, direttore del Center for Intelligent Systems e co-autore del saggio “Artificial Intelligence: a Modern Approach”.
“Pause Giant AI Experiments: An Open Letter” è il titolo dell’appello pubblicato in queste ore sul sito del Future of Life Institute. Il sottotitolo è molto esplicito: “Ci appelliamo a tutti i laboratori di intelligenza artificiale affinché fermino immediatamente per almeno sei mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4”.
Grande è il timore suscitato dalle performance spesso incredibilmente potenti delle applicazioni recentemente rese disponibili da OpenAI, tra cui la più celebre è sicuramente ChatGPT, un bot talmente performante da simulare (quasi) perfettamente il linguaggio e il ragionamento umano. I firmatari dell’appello chiedono che il settore si fermi a riflettere e a definire standard comuni e condivisi per l’utilizzo di questo potente (e potenzialmente pericoloso) strumento.
«Tutti i laboratori ed esperti indipendenti dovrebbero usare questa pausa per sviluppare e implementare insieme un set di protocolli di sicurezza condivisi per la progettazione e lo sviluppo dell’intelligenza artificiale avanzata – si legge nella lettera aperta – the siano rigorosamente verificati e supervisionati da esperti indipendenti ed esterni. Questi protocolli dovrebbero assicurare che i sistemi che vi aderiscono siano sicuri oltre ogni ragionevole dubbio. Questo non significa fermare lo sviluppo dell’AI in generale, ma semplicemente fare un passo indietro rispetto a una pericolosa corsa a modelli con capacità emergenti sempre più imprevedibili».