Stop di almeno 6 mesi allo sviluppo del sistema più evoluto di intelligenza artificiale.
Non è tutto oro quello che luccica e gli enormi progressi dell'intelligenza artificiale (AI) cui stiamo assistendo in questa era non hanno solamente importanti lati e risvolti positivi ma pongono anche dubbi di natura etica (ma non solo) che l'avanzamento veloce ed inarrestabile della ricerca non consentono di esaminare e sorvegliare con accorgimenti e soluzioni cha riescano efficacemente ad andare di pari passo con la disponibilità su larga scala delle stesse nuove tecnologie in questione.
L'AI fa paura: scienziati e personalità influenti chiedono una pausa per GPT-4
Scienziati e personalità influenti, fra cui il magnate Elon Musk, hanno sottoscritto una lettera aperta per chiedere una pausa di almeno 6 mesi nello sviluppo di tecnologie AI come GPT-4, il potente sistema multimodale alla base di ChatGPT Plus di OpenAI e di Bing Chat di Microsoft.
Il contenuto della lettera aperta pubblicata su Future of Life (alla quale chiunque può apporre la propria firma di adesione, qui):
- I sistemi di intelligenza artificiale con intelligenza umana-competitiva possono rappresentare un rischio per la società e l'umanità
- C'è una gara per sviluppare e implementare sistemi di intelligenza artificiale più potenti
- Potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando i loro effetti sono positivi e i rischi sono gestibili
- I laboratori di intelligenza artificiale dovrebbero sospendere per almeno sei mesi l'addestramento di sistemi di intelligenza artificiale più potenti di GPT-4
- Durante la pausa, i laboratori di intelligenza artificiale e gli esperti indipendenti dovrebbero sviluppare e implementare congiuntamente protocolli di sicurezza per la progettazione e lo sviluppo avanzati di intelligenza artificiale che siano verificati e supervisionati da esperti esterni indipendenti
- La ricerca e lo sviluppo dell'IA dovrebbero concentrarsi sul rendere i sistemi odierni più accurati, sicuri, trasparenti e affidabili
- I responsabili politici dovrebbero accelerare lo sviluppo di solidi sistemi di governance dell'IA che includano nuove autorità di regolamentazione, supervisione e tracciamento di sistemi di IA altamente capaci, sistemi di provenienza e watermarking, un solido ecosistema di audit e certificazione, responsabilità per i danni causati dall'IA e solidi finanziamenti pubblici per la tecnica Ricerca sulla sicurezza dell'IA
- I sistemi di intelligenza artificiale possono essere progettati per il chiaro vantaggio di tutti e dare alla società la possibilità di adattarsi.
Oltre al già citato Musk (che, va detto, ha tentato di rilevare OpenAI qualche stagione fa, senza successo), fra i firmatari della lettera aperta che chiedono una pausa nello sviluppo di GPT-4 figurano personalità influenti come Yoshua Bengio, Stuart Russell, Steve Wozniak, Yuval Noah Harari e Andrew Yang.
Articolo di HTNovo