L'intelligenza artificiale deve farci paura?

Umanoide Umanoide Deric - http://domesticenhancements.wordpress.com/design-reference/

Obiettivo "Innocuo", cattiva programmazione, fine della razza umana?                                                                                                                                         

Immaginate una macchina programmata con l'apparentemente innocuo, ed eticamente neutrale obiettivo di ottenere il maggior numero di graffette ferma foglio il più velocemente possibile. Prima le raccoglie, poi rendendosi conto che ne potrebbe ottenere di più se fosse più intelligente, cerca di migliorare il proprio algoritmo per massimizzare la potenza di calcolo e quindi la capacità di raccolta. Facilmente si può immaginare come la macchina possa riuscire a migliorarsi in poco tempo e fare di tutto per raggiungere il suo obiettivo: raccogliere graffette.
Per raggiungere il suo obiettivo potrebbe però anche acquistare graffette, rubare graffette o forse trasformare tutta la terra in una fabbrica di graffette!
Obiettivo "Innocuo", cattiva programmazione, fine della razza umana.

Nel recente dibattito sui rischi di sviluppo di macchine super intelligenti e macchine con intelligenza generale superiore a quella degli esseri umani, sono emersi due filoni: un lato sostiene che se una macchina raggiunge un'intelligenza avanzata, avrebbe automaticamente cura dei valori umani e non rappresenterebbe una minaccia per noi, il lato opposto sostiene invece che l'intelligenza artificiale, inevitabilmente arriverebbe a voler eliminare gli esseri umani, o per vendetta o per un desiderio intrinseco di sopravvivenza.

In realtà, entrambi questi punti di vista sono sbagliati perchè fanno l'errore di proiettare emozioni umane su una macchina.  
Un' I.A. - Intelligenza Artificiale - può in realtà essere molto meno simile all'uomo, nelle sue motivazioni, di un alieno. L'extraterrestre (supponiamo) è una creatura biologica che si è creata attraverso un processo evolutivo e che può quindi avere il tipico pensiero delle creature evolute. Sarebbe estremamente logico, per esempio, trovare qualche alieno tanto intelligente da avere attenzioni verso più elementi, come il cibo, l'aria, la temperatura, il dispendio energetico, la presenza o la minaccia di lesioni personali, malattie, predazione, il sesso, o la progenie.
Un IA, invece, non ha bisogno di interessarsi intrinsecamente a nessuna di queste cose. Non c'è nulla di paradossale, un'IA ha un unico obiettivo finale, contare i granelli di sabbia, calcolare l'espansione decimale del pi-greco, o massimizzare il numero totale di graffette da raccogliere.
In realtà, sarebbe più facile creare un'Intelligenza Artificiale con obiettivi semplici come questi che costruirne una con un insieme di valori e disposizioni umane.
Evil Robot

Un IA il cui scopo finale è unico, potrebbe evolversi e cercare di prendersi cura di se per preservare la sua sopravvivenza al fine di raggiungere l'obiettivo. In questo senso, l'intelligenza e gli obiettivi finali sono "ortogonali".

Gli esseri umani tendono per natura a cercare di acquisire sufficienti risorse per soddisfare i loro bisogni biologici fondamentali, e se ci pensate sono in parte guidati da convenienze biologiche minori (quali la casa, che offre un miglior controllo della temperatura o mobili più comodi). Al contempo però, è importante ricordare che le persone cercano di acquisire risorse anche ben oltre il livello minimo, come per esempio cercando di guadagnare, di aumentare il proprio status sociale o gli amici. 

Sulla base di tali osservazioni si potrebbe supporre che una super intelligenza artificiale non vedrebbe alcuna ragione strumentale di accumulare risorse oltre un certo livello, eppure una tale supposizione sarebbe del tutto ingiustificata.

Il valore delle risorse dipende dagli usi che se ne fanno, che a loro volta dipendono dalla tecnologia disponibile. Questo significa che con la giusta tecnologia e le giuste risorse di base, come il tempo, lo spazio, la materia e l'energia libera, le Macchine Intelligenti saranno in grado di raggiungere qualsiasi obiettivo.

Questi ragionamenti suggeriscono che non si può presumere che una super intelligenza artificiale condivida necessariamente qualsiasi valore associato alla saggezza e allo sviluppo intellettuale dell'uomo, alla sua curiosità scientifica, alla preoccupazione benevola per gli altri, all'illuminazione spirituale e alla contemplazione, alla rinuncia di avidità materiale, al gusto per la cultura raffinata o per i semplici piaceri della vita, all'umiltà e all'altruismo, e così via.

Anche ragionando per convergenza, non possiamo pensare che un'IA con l'obiettivo finale di calcolare, per esempio, i decimali del pi-greco limiti le sue attività in modo tale da non violare gli interessi umani. Infatti, in molte situazioni, un robot con tale obiettivo avrebbe una ragione strumentale convergente di acquisire una quantità illimitata di risorse fisiche e, se possibile, eliminare le potenziali minacce a se stesso e per il raggiungimento del suo obiettivo.
Gli esseri umani, possono a tutti gli effetti essere considerati come potenziali minacce perchè certamente costituiscono delle risorse fisiche.

Secondo i risultati combinati di quattro sondaggi, sembra che entro il prossimo secolo si riuscirà a costruire una macchina con un livello umano di intelligenza.

Ma allora che cosa si deve fare?

Volto donna umanoide - Credit by Victor Habbick
Volto donna umanoide - Credit by Victor Habbick



E' lampante che avendo a disposizione un sistema che segue le istruzioni alla lettera si deve stare estremamente attenti a ciò che si dichiara. Gli esseri umani sono dotati di tutti i tipi di senso comune, ma una superintelligenza non ne ha nessuno.

Programmare un computer adeguatamente per avere il senso comune, è un primo grande passo da risolvere. Un approccio potrebbe essere quello di rendere gli obiettivi della macchina volutamente vaghi: invece di chiedere di "curare il cancro, si può dire di "fare qualcosa che porti un vantaggio all'umanità", impegnando così la macchina alla ricerca dei reali fabbisogni degli esseri umani.

Un altro approccio ritenuto il modo più efficace per prevenire una catastrofe è quello di danneggiare la macchina, ovvero cercare di renderla più umana. Molti ricercatori stanno lavorando allo sviluppo di "friendly AI" e ci sono già molte pubblicazioni sugli effetti teorici di una programmazione basata sui sistemi morali, e sulla misura in cui un'intelligenza artificiale può ragionare sui propri comportamenti.

Tutti questi ragionamenti, se presi insieme, indicano che la prima super intelligenza artificiale può plasmare il futuro della vita sulla Terra e potrebbe facilmente avere obiettivi finali non antropomorfi. Effettivamente gli esseri umani sono costituiti da risorse utili (come gli atomi in posizione strategica) e dipendono da altre risorse. Il risultato è semplice da immaginare, e potrebbe facilmente essere l'estinzione della razza umana.



Read 1755 times
Go to top