martedì 30 maggio 2023
Più di 350 esperti e imprenditori chiedono di trattare il rischio di distruzione dell'umanità causato dall'intelligenza artificiale alla stregua della minaccia atomica. Firma anche Altman
Sam Altman interviene al Senato americano il 16 maggio

Sam Altman interviene al Senato americano il 16 maggio - Reuters

COMMENTA E CONDIVIDI

«Mitigare il rischio di estinzione provocata dall’intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e le guerre nucleari». Più di 350 tra studiosi e imprenditori dell’intelligenza artificiale hanno firmato questo brevissima “Dichiarazione sul rischio AI” pubblicata dal Center for AI Safety, organizzazione non profit nata nel 2022 e basata a San Francisco, in California.

A firmare anche i manager delle aziende più impegnate in questo campo: Sam Altman di OpenAI (la società di ChatGPT), Dario Amodei di Anthropic, Demis Hassabis di DeepMind. Tra gli esperti spiccano nomi come quello di Yoshua Bengio, un luminare dell’intelligenza artificiale, e Geoffrey Hinton, dell’Università di Toronto. Entrambi avevano già sottoscritto appelli di questo genere e mostrato preoccupazione nelle scorse settimane.

Altman pochi giorni fa ha detto che potrebbe chiudere l’attività di ChatGPT in Europa se sarà troppo complicato adeguare il servizio agli standard previsti dalle nuove regole che sta preparando Ue. Giovedì ne parlerà direttamente con Ursula von der Leyen, presidente della commissione europea.



© Riproduzione riservata
COMMENTA E CONDIVIDI