30 marzo 2023 Elon Musk, co-fondatore di Apple, altri esperti di tecnologia chiedono una pausa sui "giganteschi esperimenti di intelligenza artificiale": "Corsa pericolosa" Musk, Wozniak e altri innovatori tecnologici firmano una lettera aperta sollecitando una pausa temporanea nello sviluppo di sistemi di intelligenza artificiale più potenti del GPT-4 di OpenAI, citando i rischi per la società e la civiltàElon Musk, Steve Wozniak e una miriade di altri leader tecnologici ed esperti di intelligenza artificiale stanno esortando i laboratori di intelligenza artificiale a sospendere lo sviluppo di nuovi potenti sistemi di intelligenza artificiale in una lettera aperta citando potenziali rischi per la società. La lettera chiede agli sviluppatori di intelligenza artificiale di "sospendere immediatamente per almeno 6 mesi l'addestramento di sistemi di intelligenza artificiale più potenti di GPT-4". È stato emesso dal Future of Life Institute e firmato da oltre 1.000 persone, tra cui Musk, che hanno sostenuto che i protocolli di sicurezza devono essere sviluppati da supervisori indipendenti per guidare il futuro dei sistemi di intelligenza artificiale. GPT-4 è l'ultimo modello di deep learning di OpenAI, che "mostra prestazioni a livello umano su vari benchmark professionali e accademici", secondo il laboratorio. "I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili", afferma la lettera. La lettera avverte che in questa fase nessuno "può comprendere, prevedere o controllare in modo affidabile" i nuovi potenti strumenti sviluppati nei laboratori di intelligenza artificiale. Gli esperti di tecnologia firmatari citano i rischi della propaganda e delle bugie diffuse attraverso articoli generati dall'intelligenza artificiale che sembrano reali, e persino la possibilità che i programmi di intelligenza artificiale possano superare i lavoratori e rendere i posti di lavoro obsoleti. "I laboratori di intelligenza artificiale e gli esperti indipendenti dovrebbero sfruttare questa pausa per sviluppare e applicare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzati di intelligenza artificiale che siano rigorosamente controllati e supervisionati da esperti esterni indipendenti", afferma la lettera. "Parallelamente, gli sviluppatori di intelligenza artificiale devono collaborare con i responsabili politici per accelerare notevolmente lo sviluppo di solidi sistemi di governance dell'Intelligenza Artificiale (IA)". I firmatari, che includono il CEO di Stability AI Emad Mostaque, i ricercatori di DeepMind di proprietà di Alphabet, così come i pesi massimi dell'IA Yoshua Bengio e Stuart Russell, sottolineano che lo sviluppo dell'IA in generale non dovrebbe essere sospeso, scrivendo che la loro lettera chiede "solo di fare un passo indietro dalla pericolosa corsa a modelli black-box imprevedibili sempre più grandi con capacità emergenti". Secondo il registro per la trasparenza dell'Unione europea il Future of Life Institute è finanziato principalmente dalla Musk Foundation, nonché dal gruppo di altruismo efficace con sede a Londra Founders Pledge e dalla Silicon Valley Community Foundation.
Dalla sua uscita lo scorso anno, ChatGPT di OpenAI supportato da Microsoft ha spinto i rivali ad accelerare lo sviluppo di modelli di linguaggio di grandi dimensioni simili e le aziende a integrare modelli di intelligenza artificiale generativa nei loro prodotti.
... |