AI, intelligenza artificiale e religione artificiale – 275

sui commenti di questo blog si sta sviluppando, per linee trasversali, un dibattito piuttosto interessante sull’intelligenza artificiale o AI.

nello stesso momento nel quale anche sui media si intensificano i riferimenti al tema.

segno che e` ora per me di provare a fare il punto sull’argomento.

ma ho l’impressione di non farcela, ancora.

per il momento dunque lasciatemi soltanto commentare un breve articolo di Manolo De Agostini sulla Stampa.

. . .

noi veniamo indotti dai media ad occuparci d’altro, ma la ricerca su macchine intelligenti procede spedita e con grandi investimenti di fondi.

si conta sulla nostra distrazione e tutto avviene quasi a nostra insaputa.

qualche informazione generica ci viene data, come in quell’articolo, condita di vaghe promesse dette col tono di un venditore di aspirapolvere:

Lo sviluppo di intelligenze artificiali più evolute e di robot umanoidi avanzati potrebbe migliorarci la vita in modi che ancora fatichiamo a comprendere.

ma se guardiamo la realta` col sorriso cinico che e` necessario per capirla davvero, vediamo che la elite degli iper-plutocrati sta cercando di costruire un mondo nel quale gli esseri umani comuni possano essere superflui.

e che questo e` reso possibile dalla spaventosa concentrazione della ricchezza che si sta sviluppando nel mondo attuale.

intanto che qualcosa trapela ci tengono buoni promettendoci chissa` che cosa.

. . .

ma una intelligenza artificiale capace di apprendere e di modellarsi da se` non rischia di diventare troppo umana?

l’intelligenza artificiale che diventa consapevole di sé potrebbe vedere gli umani come una minaccia e volerli sterminare.

o peggio, semplicemente badare ai suoi interessi e bisogni e disinteressarsi di quelli del suo creatore e padrone.

Secondo Nick Bostrom, a capo del The Future of Humanity Institute, le macchine diventeranno più intelligenti degli uomini entro 100 anni e potrebbero rivoltarsi contro i propri creatori.

Potrebbe volerci molto tempo per arrivare al livello umano, ma penso che il passo da lì alla superintelligenza sarà molto rapido”.

Al momento non ci sono intelligenze artificiali tanto evolute da rappresentare un problema per il genere umano, ma allo stesso tempo i progressi nel settore sono esponenziali e per questo è difficile dire se e quando l’umanità avrà bisogno di premere il fatidico “tasto rosso”.

. . .

vagamente preoccupati? ma no!

Google, che e` una protagonista di queste ricerche, sta studiando un modo sicuro per “staccare la spina” alle intelligenze artificiali, nel caso in cui queste non si comportino nel modo desiderato.

e` abbastanza chiaro che di questa notizia viene dato quel tanto che serve a rassicurarci, vero?

anche se poi sfugge egualmente qualche informazione molto meno tranquillizzante:

Alcuni algoritmi come quelli di Q-learning sono interrompibili in modo sicuro mentre altri come quelli Sarsa (State-Action-Reward-State-Action) non lo sono, ma possono essere modificati facilmente affinché lo diventino.

“Non è chiaro se tutti gli algoritmi possano essere resi facilmente interrompibili”, dicono.

. . .

I ricercatori londinesi di DeepMind, azienda acquisita da Big G nel 2014, stanno lavorando gomito a gomito con gli scienziati dell’Università di Oxford per trovare un modo di impedire alle intelligenze artificiali di diventare padrone di se stesse, ovvero capaci di negare agli uomini il controllo sulle loro azioni.

Il lavoro del team è illustrato nel documento “Safely Interruptible Agents” pubblicato sul sito del Machine Intelligence Research Institute (MIRI).

Secondo i ricercatori – scrive BusinessInsider – è improbabile che le intelligenze artificiali si comportino sempre in modo ottimale e per questo “di tanto in tanto può essere necessario che un operatore umano prema il grosso pulsante rosso che impedisca all’agente d’intelligenza artificiale di continuare una sequenza nociva di azioni – nocive sia per l’agente o per l’ambiente – e riportarlo in una situazione più sicura”.

I ricercatori hanno così creato una rete che consente all’operatore umano d’interrompere ripetutamente e in modo sicuro un’intelligenza artificiale, assicurandosi che quest’ultima non impari a impedire o indurre tali interruzioni.

“Se l’agente si aspetta un premio ma è in grado di capire che sta per essere spento, cercherà di resistere per ottenere la ricompensa.

Il nostro framework fa sì che il supervisore umano prenda temporaneamente il controllo dell’agente e lo induca a credere di voler spegnersi da solo”.

. . .

sapete che cosa impressiona me?

prendete l’ultima frase della citazione di qui sopra, ad esempio.

non potrebbe essere la perfetta descrizione di un suicidio?

il suicidio: un momento nel quale un supervisore delle nostre menti ne prende il controllo e decide di spegnerle.

convincendoci di volerlo fare da soli…

. . .

secondo me un sistema sicuro per tenere sotto controllo delle intelligenze artificiali e` gia stato inventato.

e` la religione, e` la fede in dio.

qualcuno desidera appreofondire il paradosso?

si sobbarchi questa passeggiata nella discussione sul tema svoltasi in questo blog 🙂

. . .

bortocal 06.06.16 14:47

il problema dell’AI e` che rende gli esseri umani largamente superflui…

e qui c’e` da preoccuparsi assai, in vista del futuro…

.

fla_ts 06.06.16 15:03

Al momento quella che chiamano AI è abbastanza elementare. Non c’è rischio che renda superfluo nessuno.

Non vedo nulla di male se gli esseri umani evolveranno attraverso una integrazione con l’AI artificiale.

.

bortocal 06.06.16 15:12

neppure io vedo nulla di male, in linea di principio e astrattamente, se gli esseri umani evolveranno attraverso una integrazione con l’AI, l’intelligenza artificiale.

resta soltanto da vedere come avverra` questa integrazione.

la preoccupazione sulla sostituzione degli addetti oramai perfino nei lavori d’ufficio ad opera delle macchine informatiche e` ammpiamente diffusa fra chi studia il problema.

non e` un buon motivo, da solo, per tornare al passato, ma non sarebbe male che i giovani disoccupati di oggi si rendessero conto che sono tali anche perche` sono stati sostituiti dalle macchine in molte funzioni piu` elementari, e che la tendenza continua.

invece mi sento di dire che pensare all’intelligenza artificiale come a qualcosa di neutrale e` davvero una ingenuita` quasi imperdonabile…😉

da chi sarebbe autonoma l’AI?

da chi l’ha costruita a propria immagine e somiglianza e per i propri scopi?

suppongo che sia una moderna barzelletta.

basta ricordarsi le leggi della robotica di Asimov per sapere che l’interesse personale del robot e` quello del suo costruttore.

.

fla_ts 06.06.16 16:00

Se non è autonoma non è AI ma solo un programma classico più o meno complesso.

.

Krammer 07.06.16 19:29 – 00:24

scusa ma che vuol dire “autonoma” ?

un’intelligenza biologica sarebbe autonoma? rispetto a cosa?

rispetto all’ambiente in cui vive ed opera, proprio no. come non è autonoma alcuna AI, debole o forte che sia.

nulla è “autonomo”, se non l’insieme totale di un sistema chiuso preso a modello: l’universo (o l’insieme di tutti gli universi) nella sua interezza quindi.

qualunque entità che vi agisce all’interno non è autonoma. dipende dal sistema, agisce in accordo col sistema perchè fa parte del sistema.

.

bortocal 06.06.16 19:29 – 20:57

certo, stiamo parlando dei computer che sono in grado di apprendere: fino a che non si supera questo livello, e` fuori posto parlare di Intelligenza Artificiale.

e tuttavia, anche se il pc apprende dalle sue esperienze, anche questo apprendimento e` impostato con alcune caratteristiche di fondo.

lasciami scherzare: per esempio si puo` costruire un pc che crede in dio e poi fargli credere, in premessa, di essere dio; e prevedere che nessun tipo di esperienza possa mai mettere in discussione l’esistenza di questo dio, anche considerando che non e` sperimentale, cioe` e` estraneo alla sfera dell’apprendimento.

non so se la cosa ti ricorda qualcosa, per caso… 😉

credo proprio che la prima cosa da fare alle intelligenze artificiali, per farle diventare umane, e` di convincerle che dio esiste.

ho letto ieri la strana ipotesi di uno che dice che noi saremmo appunto delle intelligenze artificiali che viviamo in un mondo virtuale creato da qualcun altro per i suoi scopi.

potremmo essere una specie di televisione a quattro dimensioni inventata per il divertimento di esseri superiori, assieme a tutto il nostro universo?

che poi dei personaggi televisi credano nella democrazia…, non sarebbe patetico?

.

fla_ts 06.06.16 21:04

Sarà stato Musk? ne spara una più bella dell’altra.

Comunque era una ipotesi fatta già da tempo quella del mondo come simulazione.

Ma più che come televisore siamo noi stessi, raggiunto un certo livello di sviluppo ad aver creato simulazioni per vivere ed esplorare mondi alternativi. I mondi simulati potrebbero a loro volta simulare altri mondi e così via. Simulazione dentro simulazione dentro simulazione. Pazzi.

.

bortocal 06.06.16 19:29 – 22:49

be’, inutile citare Matrix, direi.

no, non era Musk, ma grazie di avermelo fatto conoscere, comunque: mi sembra un personaggio decisamente piu` interessante dei vari Zuckerberg e Bill Gates.

Musk, un sognatore concreto e pieno di soldi, pero`, cioe` un realizzatore di esperimenti.

no, era uno scalzacani qualunque da blog, come me…

.

fla_ts 07.06.16 00:07

ah Musk… un sognatore.

Io dicevo, magari non insegnamo all’AI il concetto di Dio. Poi deciderà da solo in cosa credere.

niente metafisica nella AI.

a meno che non se la inventi da sola.

.

Krammer 07.06.16 19:29 – 00:24

la differenza tra una AI forte ed una AI debole non verte sull’autonomia ma sull’apprendimento multifunzionale adattabile all’ambiente (e qui la strada è aperta ormai da qualche anno, basti leggersi qualcosa su deepmind ad esempio) e sull’autocoscienza (che non sarà mai in alcun caso verificabile, ed il test di turing è stato superato nel 2014).

per creare una AI forte non serve copiare l’essere umano.

basta replicare un qualsiasi essere senziente molto semplice e dargli il tempo di evolvere, aumentando magari man man input e connessioni. dargli insomma spazio e stimoli variegati.

la teoria è che l’uomo sia mosso da motivazioni, da insiemi molteplici di ‘impulsi per ricevere piacere’ e di ‘impulsi per evitare dolore’, non diversamente da una formica o da un minuscolo invertebrato.

la selezione naturale ha differenziato le funzionalità degli esseri senzienti facendo collimare il ‘piacere’ con ciò che è atto alla preservazione della vita (in primis alimentazione e riproduzione), ed il ‘dolore’ con ciò che ne mina la sopravvivenza. 

condizioni queste replicabili sulle macchine, sia su di uno spazio virtuale sia sullo spazio fisico reale (se si forniscono all’AI apparati sensoriali e attuatori).

il motivo principale per cui l’AI è ancora molto distante da ciò che contraddistinguere la BI di un animale evoluto è il tempo esperienziale, tutta quell’infinita serie di errori e successi che dal protozoo passando per un googol di individualità ci hanno portato oggi qui, sotto molteplici forme diversamente intelligenti.

ma il molto distante – considerate le capacità computazionali ed il potenziale di interfacciamento e scalabilità dei sistemi che aumentano anno dopo anno in modo esponenziale più che lineare – potrebbe non essere così distante. Potrebbe essere questione anche solo di una manciata di decenni. Dipende anche da noi, da quanta potenza, energia e libertà lasceremo alle future AI per evolvere.

E non bisognerebbe pensare all’AI forte come ad una macchina: la macchina sarà piuttosto una cellula, dove più macchine formeranno l’organismo.

Non sarà mai intelligente come un uomo: sarà infinitamente più stupido ed infinitamente più sveglio. Sarà diverso, come noi siamo diversi (in misura di molto minore) rispetto ad un polpo o ad una formica.

Qual’è il margine umano di manovra per veicolare tali AI forti? Molto basso, limitato alla programmazione atomica di ciò che è piacere e ciò che è dolore.

Stando alla prassi ingegneristica, la programmazione più efficace di AI elimina il piacere e identifica il dolore con l’assenza di input (GAME OVER). il piacere è per contrapposizione la presenza di nuovi input, mantenersi in vita.

Le AI più evolute sono già oggi come cuccioli neonati che imparano a “conoscere” il loro mondo virtuale agendo nel sistema, giocando. cosa e come imparano non ci è dato sapere, dal momento che utilizzano reti neurali, imprevedibili scatole nere.

Un approccio del genere è perfetto per le realtà simulate dal momento che la macchina non può morire definitivamente: si resetta l’ambiente e si riparte.

Nel mondo reale sarebbe un poco diverso…

.

fla_ts 07.06.16 00:39

Ottima risposta. 

Aspettiamo che le AI crescano.

.

bortocal 07.06.16 19:29 – 05:33

caro fla_ts

Musk, un sognatore concreto e pieno di soldi, pero`, cioe` un realizzatore di esperimenti.

sul negare alle macchine pensanti una metafisica programmata sono perfettamente d’accordo con te, invece.

infatti la metafisica sarebbe l’antidoto perfetto alla religione, che invece ci serve.

pero` non potremo evitare che le macchine pensanti provino a farsene una, pasticciata e inconcludente e spesso a supporto della religione.

come noi umani, in definitiva.

si`, mi pare stiamo raccogliendo molti indizi sul fatto che noi stessi siamo forme di AI, intelligenza artificiale.

e che stiamo creando intelligenze artificiali di secondo livello.

manca soltanto un passaggio: un mondo virtuale pure di secondo livello, nel quale far vivere le intelligenze artificiali e poi la riproduzione potrebbe essere perfetta!:)

. . .

ripubblicare discussioni di questo tipo, dove faccio ampiamente la figura del guru che parla a casaccio con tono ispirato, deve essere oramai considerata una specie di perversione in me.

per fortuna sono abbastanza sicuro che nessuno se le fila nemmeno… 🙂

 

Annunci

Lascia un commento, soprattutto se stai scuotendo la testa. Un blog lo fa chi lo commenta. E questo potrebbe diventare il tuo blog.

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...