lunedì 9 settembre 2024

Testo integrale della lettera aperta di marzo 2023 del Future of Life Institute

Pausa sugli esperimenti giganti di intelligenza artificiale: Lettera aperta

L'intelligenza artificiale contemporanea sta diventando competitiva a livello umano in molti compiti generali, e dobbiamo chiederci: dovremmo lasciare che le macchine inondino i nostri canali di informazione con propaganda e verità falsificate? Dovremmo automatizzare tutti i lavori, inclusi quelli gratificanti? Dovremmo sviluppare menti non umane che potrebbero un giorno superare, essere rese obsoleti e rimpiazzare noi stessi? Dovremmo correre rischi nella perdita di controllo della nostra civiltà? Tali decisioni non devono essere delegate a leader tecnologici non eletti. I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando siamo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili. Questa fiducia deve essere ben giustificata e aumentare con la portata degli effetti potenziali di un sistema.

In recenti mesi, i laboratori di IA si sono coinvolti in una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno – nemmeno i loro creatori – può comprendere, prevedere o controllare in modo affidabile. I moderni sistemi di IA generativa ora competono con gli esseri umani su una varietà sempre maggiore di compiti e possiamo aspettarci che sostituiscano sempre più lavori. Questi sviluppi senza freni rischiano di inondare i canali informativi con propaganda e bugie, di automatizzare via i lavori, di rendere obsoleti gli esseri umani e di lasciare i leader non eletti a decidere il destino dell’umanità.

I potenti sistemi di IA dovrebbero essere sviluppati solo quando siamo sicuri che i loro effetti saranno positivi e i rischi saranno gestibili. La verità è che non possiamo essere sicuri. Pertanto, noi chiediamo a tutti i laboratori di IA di sospendere immediatamente per almeno sei mesi l’addestramento di sistemi IA più potenti di GPT-4. Questa pausa dovrebbe essere pubblica e verificabile, e includere tutti gli attori chiave. Se tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e imporre una moratoria.

Durante questa pausa, i laboratori e gli esperti indipendenti dovrebbero utilizzare il tempo per sviluppare e implementare protocolli di sicurezza congiunti per la progettazione e lo sviluppo di IA avanzata. Questi protocolli devono assicurare che i sistemi che rispettano standard elevati di sicurezza siano soggetti a supervisione e controllo umano rigorosi. Questi protocolli dovrebbero essere formulati in modo trasparente e revisionati da esperti esterni per garantire la conformità.

L'intelligenza artificiale ha già dimostrato di poter portare a benefici significativi. Tuttavia, ora stiamo vedendo solo la punta dell’iceberg. Le future IA più avanzate potrebbero portare a un cambiamento epocale nella storia della vita sulla Terra e non è esagerato descrivere queste tecnologie come una sfida esistenziale per l'umanità. Dobbiamo essere certi di gestire questi rischi con cura e prudenza.

Questa pausa non significa un arresto dello sviluppo dell'intelligenza artificiale, ma piuttosto un passo necessario per garantire che lo sviluppo sia sicuro e gestito in modo adeguato. La società ha già bloccato altri tipi di tecnologie che potrebbero avere effetti catastrofici per l'umanità, come le armi biologiche e nucleari, e possiamo fare lo stesso qui.

Invitiamo i governi a istituire una moratoria se le aziende e i laboratori di intelligenza artificiale non rispetteranno volontariamente questa richiesta.

Schemi di letteratura

Terza Quarta Quinta