Rischio IA: “Può diventare come una pandemia o una guerra nucleare”

Un gruppo di attive nel capo dell'intelligenza lancia l'ennesimo allarme sui rischi correlati allo sviluppo di questa tecnologia.

Non manca di continuare a destare preoccupazione, oltre che interesse, lo sviluppo dell’intelligenza artificiale. Una delle ultime prese di posizione è quella firmata da più 350 manager del settore, diffusa dall’associazione no profit Center for AI Safety. Fra i firmatari, come riportato dal New York Times, l’amministratore delegato di OpenAI Sam Altman, il capo di Google DeepMind Demis Hassabis, Geoffrey Hinton e Yoshua Bengio, ricercatori premiati con il Turing Award per il loro lavoro sulle reti neurali.

 

Nella lettera si afferma nientemeno che l’intelligenza artificiale “pone una minaccia esistenziale all’umanità e dovrebbe essere considerata un rischio sociale come le pandemie e le guerre nucleari” e che “mitigare il rischio estinzione” che essa pone deve essere una priorità.

 

I timori riguardano il fatto che lo sviluppo delle capacità dell’intelligenza artificiale stia compiendo progressi più rapidi di quanto ci si aspettava. Essa avrebbe già superato le prestazioni umani in alcune aree e lo sviluppo di un’intelligenza artificiale denominata AGI (intelligenza artificiale generale), in grado di superare le prestazioni umani in una vasta serie di compiti, potrebbe essere mono remoto di quanto si pensa. Fra i pericoli correlati vi sono la capacità da parte dell’IA di sviluppare agenti patogeni o di violare i sistemi informatici di infrastrutture critiche.