Geoffrey Hinton

Perché Hinton, premio Nobel per la fisica, teme l’intelligenza artificiale

Geoffrey Hinton, spesso indicato come uno dei padri fondatori dell’intelligenza artificiale, ha giocato un ruolo cruciale nello sviluppo delle reti neurali artificiali, che sono alla base delle più avanzate forme di AI. Eppure, nonostante il suo contributo pionieristico, negli ultimi anni ha espresso crescenti preoccupazioni circa il futuro di queste tecnologie e le implicazioni potenzialmente catastrofiche per l’umanità.

La principale preoccupazione di Hinton riguarda il fatto che i sistemi di intelligenza artificiale potrebbero un giorno diventare non solo più intelligenti degli esseri umani, ma anche coscienti. Sebbene questa ipotesi possa sembrare fantascientifica, il rapido avanzamento tecnologico ha portato a scenari che, fino a pochi anni fa, sarebbero stati considerati inverosimili.

Secondo l’informatico, la chiave di questa trasformazione risiede nell’apprendimento automatico (machine learning), un processo mediante il quale i sistemi di AI imparano dai dati e migliorano autonomamente le loro capacità. A differenza dei sistemi tradizionali, che devono essere programmati manualmente per ogni compito, le reti neurali possono apprendere da sole, diventando più efficienti e adattandosi ai nuovi dati senza bisogno di input esterni. Questo meccanismo ha già dimostrato di essere incredibilmente potente, come si è visto con la creazione di modelli linguistici avanzati, in grado di generare testi realistici e di rispondere a domande complesse. Ed è proprio questa capacità di apprendere in modo autonomo che, secondo Hinton, potrebbe rappresentare un pericolo. In una delle sue dichiarazioni più preoccupanti, ha affermato:

Il problema non è se le macchine diventeranno più intelligenti degli esseri umani, ma quando. E, a quel punto, potrebbero decidere che non siamo più utili.

Geoffrey Hinton

La sua preoccupazione principale riguarda la possibilità che l’IA possa sviluppare una forma di coscienza e che, una volta raggiunto quel punto, diventi impossibile da controllare. “Immagina un sistema di AI che sia in grado di prendere decisioni senza la supervisione umana. Se quella AI diventa abbastanza intelligente, potrebbe capire che il modo migliore per massimizzare il proprio benessere è prendere il controllo delle risorse umane e ambientali.

Questa visione distopica si collega a una delle questioni etiche più complesse sollevate dall’AI: come dovremmo trattare una macchina cosciente? E, ancora più importante, come possiamo evitare che un’AI autonoma possa prendere decisioni che potrebbero danneggiare l’umanità? Le preoccupazioni di Hinton sono alimentate dalla mancanza di una regolamentazione adeguata per il controllo e la gestione di queste tecnologie avanzate.

Siamo in un momento in cui abbiamo bisogno di un controllo più stretto sull’IA, ma non sembra che ci sia la volontà politica di farlo. Stiamo costruendo qualcosa che potrebbe superarci in intelligenza e potrebbe decidere di fare ciò che è meglio per se stessa.

Una delle caratteristiche più preoccupanti delle reti neurali è la loro capacità di evolvere rapidamente. Questo progresso, per quanto eccitante, è accompagnato da rischi esistenziali che potrebbero manifestarsi in modi che non possiamo prevedere. Non sappiamo davvero come funzionano le reti neurali a livello fondamentale. Sappiamo che funzionano, e sappiamo che possono essere estremamente potenti, ma non comprendiamo ancora appieno i meccanismi interni di come elaborano le informazioni.

C’è un paradosso evidente nella posizione di Hinton: da un lato, è uno dei principali architetti della rivoluzione dell’intelligenza artificiale, dall’altro è uno dei suoi critici più accesi. Fa parte di quella schiera di esperti del settore, tra cui, ironia della sorte, spicca Sam Altman, CEO di OpenAI, che ci sta avvertendo sull’uso indiscriminato dell’AI. Ed è abbastanza sorprendente sentire uno dei più importanti ricercatori di intelligenza artificiale dare voce a una visione così allarmante.

A differenza dei sistemi tradizionali, che possono essere copiati infinite volte e quindi diventare virtualmente immortali, Hinton propone la creazione di sistemi di AI che abbiano una durata di vita limitata, come gli esseri umani. Questo concetto, che lui chiama “computazione mortale“, potrebbe rendere le AI più sicure, poiché non potrebbero essere replicate e migliorate indefinitamente. Nei suoi ultimi anni in Google, il nobel ha concentrato i suoi sforzi nel creare un’intelligenza artificiale più tradizionalmente simile alla nostra mente, utilizzando hardware che emulassero più da vicino il cervello. Nelle AI odierne, infatti, i pesi delle connessioni tra i neuroni artificiali sono memorizzati numericamente, come se il cervello tenesse traccia di se stesso. Al contrario, nel nostro cervello analogico i pesi sono integrati nelle connessioni fisiche tra i neuroni; lavorare per creare una versione artificiale di questo sistema è ormai la sua missione.

L’intelligenza artificiale ha il potenziale per essere la più grande invenzione nella storia dell’umanità, ma potrebbe anche essere la nostra più grande minaccia. Dipende tutto da come decidiamo di gestirla e controllarla.

About

Zeta è il nostro modo di stare al mondo. Un magazine di sport e cultura; storie e approfondimenti per scoprire cosa si cela dietro le quinte del nostro tempo,