Aula ueb

che cos'è l'intelligenza artificiale?, intervista a Goertzel

« Older   Newer »
  Share  
iangida
view post Posted on 3/4/2010, 11:09






Ascesa controllata dell’Intelligenza Artificiale Generale, intervista a Ben Goertzel
Tecnoscienza - Intelligenza artificiale
Le interviste del SIAI (Singularity Institute for Artificial Intelligence)
Ben Goertzel, Direttore ricerche SIAI
tratto dal sito: http://estropico.org/index.php?option=com_...ciale&Itemid=79

“Cos’é l’intelligenza artificiale?”

Per rispondere a questa domanda, dobbiamo prima chiederci: “Cos’è l’intelligenza?”. E’ un argomento su cui psicologi e studiosi dell’intelligenza umana non sono completamente d’accordo, ma nel mio lavoro ho finito per definire l’intelligenza come l’abilità di conseguire obiettivi complessi in ambienti complessi. Naturalmente, è una questione di misura. Gli esseri umani sono molto più intelligenti delle blatte, le blatte sono più intelligenti dei batteri, ed è ben possibile che vi siano altre menti, dall’intelligenza superumana, che possono risolvere problemi più complessi e conseguire obiettivi più complessi in contesti differenti. Se decidi di adottare questa definizione di intelligenza, la domanda successiva diventa: ”Cos’è artificiale?”. Un artificio è uno strumento, quindi il termine “intelligenza artificiale” porta con sé l’idea di costruire sistemi che possono ottenere risultati complessi in ambienti complessi, costituiti dagli oggetti che abbiamo creato. Questa è una cosa in cui finora abbiamo ottenuto scarsi successi, nel senso che siamo riusciti a costruire solo sistemi che raggiungono obiettivi molto specifici: giocare a scacchi, guidare macchine, diagnosticare malattie. Ancora non abbiamo costruito alcun tipo di sistema artificiale, sia esso software, hardware o una vasca piena di sostanze chimiche, capace di ottenere diversi obiettivi complessi in diversi ambienti. Ma tra noi, alcuni ricercatori nel campo dell’IA cominciano a credere che questo possa cambiare in un futuro relativamente prossimo. Ci stiamo avvicinando al giorno in cui potremmo riuscire a creare IA con quella capacità di conseguire scopi diversi che oggi osserviamo solo negli esseri umani.

“Che differenza c’è tra Intelligenza Artificiale e Intelligenza Artificiale Generale?”

Penso che sorgano dei problemi ogni volta che usi parole inglesi, o di qualunque altro linguaggio naturale, nel descrivere concetti tecnici, perché i termini del linguaggio naturale sono intrinsecamente ambigui. E’ proprio della comunicazione umana. Non sarai mai completamente preciso, quando descrivi argomenti tecnici con parole del linguaggio naturale. Il concetto di energia in fisica è un po’ differente dal concetto di energia nella vita quotidiana. Perciò penso che termini come “Intelligenza Artificiale Generale” facciano sorgere la stessa questione. La scienza dell’IA fa proprie, nell’utilizzare questi termini, le definizioni della matematica, che sono definizioni rigorose. Ma non combaciano necessariamente con le definizioni dei linguaggi naturali. Tanto premesso, definisco "Intelligenza Artificiale" un sistema che può risolvere una varietà di problemi diversi, alcuni dei quali potrebbero anche non essere mai stati considerati dai programmatori che l’hanno creata. Proprio come un bambino, che quando nasce e cresce impara a risolvere problemi di cui i suoi genitori non erano a conoscenza e che magari nemmeno conoscevano. Ma è una cosa molto diversa dai programmi di IA di cui si occupano la maggior parte dei ricercatori di IA. Oggi, se scriviamo un programma di scacchi, il programma giocherà solo a scacchi. Non giocherà mai al gioco del Go, o a dama, a meno che il programmatore non glielo dica. D’altra parte, se crei un sistema con un livello di intelligenza generale superiore, comparabile a quella umana, una volta che gli avrai insegnato come giocare a scacchi, il sistema potrà imparare la dama più in fretta che se non avesse in precedenza imparato alcun altro gioco. Sarà cioè in grado, grazie alla sua intelligenza generale, di operare astrazioni e di spaziare da una particolare categoria di problemi ad un'altra. Penso che dobbiamo renderci conto che un’intelligenza infinitamente generale non è possibile in questo Universo. Un’intelligenza infinitamente generale richiederebbe un’infinita potenza di calcolo. Noi umani non siamo affatto infinitamente generali. Il 30% del nostro cervello è dedicato all’elaborazione della visione. Una buona parte del nostro cervello si dedica a compiti molto specifici: la vista, l’udito, il movimento, la propriocezione, riconoscere la delusione degli altri, capire il linguaggio. Solo una parte molto piccola del nostro cervello è deputata alla generalizzazione e alla risoluzione ad ampio spettro dei problemi. E questo, infatti, è qualcosa in cui non siamo molto bravi. Molti umani non riescono a risolvere problemi al di là di quello che è stato loro insegnato o per i quali si sono evoluti. In una certa misura, quella di risolvere problemi di vario tipo è un’abilità che gli umani conquistano dopo molta pratica e studio. E non vorrei darle troppo peso. Tuttavia, è molto maggiore del software di scacchi di Deep Blue o quello nelle macchine che partecipano alla DARPA Grand Challenge.

“Quando arriverà l'Intelligenza Artificiale Avanzata?”

Gli approcci possibili alla realizzazione di un'Intelligenza Artificiale Generale sono sostanzialmente due: emulare il cervello umano in un software, e creare un sistema di IA diverso dal cervello, che trae la sua intelligenza da principi diversi da quelli usati dal cervello umano. La tecnologia oggi ci sta preparando in modi diversi a percorrere, in un futuro relativamente prossimo, entrambe queste strade.

Emulare il cervello umano richiede due cose: mappare meglio ciò che accade dentro il cervello ed un migliore hardware. Tutte e due le cose si stanno realizzando ad un ritmo molto rapido, come Ray Kurzweil ha illustrato in modo molto efficace nel suo libro The Singularity is Near [La singolarità è vicina]. La legge di Moore e i suoi pattern nell’evoluzione dell’hardware mostrano che i nostri computer stanno rapidamente diventando sempre più performanti e la loro memoria sempre più capiente. Se osservi le curve di crescita delle tecnologie di scansione cerebrale, stiamo ottenendo una maggiore precisione spaziale e temporale in termini di comprensione di ciò che avviene nel cervello umano. Se metti queste due cose insieme, arrivi alla conclusione che in pochi decenni saremo in grado di mappare cosa sta succedendo nel cervello umano e di simularlo in un computer. Si potrebbe dire: ”Beh, che vuoi che sia. Abbiamo già abbastanza gente. A cosa ci servono persone digitali?”. D’altro canto, guardiamola da questo punto di vista: cosa succederebbe se prendessimo le 100 persone più intelligenti del mondo, le copiassimo un migliaio di volte ciascuna, facendo funzionare tutte le loro menti 100 volte più velocemente di quanto facciano naturalmente, e nel contempo osservassimo tutto ciò che accade nel loro cervello? Questo porterà rapidamente a molti, e sorprendenti, progressi scientifici. Perciò direi che quando ottieni una buona emulazione del cervello umano, otterrai ogni tipo di sistemi di IA non-umani. Sostanzialmente, la Singolarità è davvero vicina.

Quando all’altro approccio all’IA, quello in cui non emuli il cervello umano, ma cerchi di creare una macchina pensante attraverso principi diversi, anche lì ci sono stati progressi importanti. Immaginarsi come sarà l’IAG e tracciare una rotta verso essa è, secondo me, molto più semplice oggi di quanto non fosse poniamo, 10 anni fa. Il motivo è un po’ più sottile di quanto non fosse nel caso dell’emulazione diretta del cervello, ma è comunque molto chiaro. Penso innanzitutto alle scienze cognitive. Se cerchi di fare un diagramma di flusso di quello che succede nella mente umana, abbiamo percezione, azione, memoria a breve e a lungo termine, ragione, apprendimento, apprendimento percettivo, motorio. Insomma, due buone dozzine di rettangolini con molte frecce tra loro. Abbiamo qualche comprensione di cosa succede dentro ciascuno di questi “rettangoli”. Tutta questa conoscenza è incredibilmente più approfondita oggi di quanto fosse 20 anni fa, persino più di quanto fosse 10 o 5 anni fa. A livello di psicologia cognitiva, abbiamo oggi una comprensione molto buona di cosa succede nella mente umana. Questo, certo, da solo non ci dice come costruire una macchina pensante, ma ti fa capire molte cose sull’architettura di alto livello che ti serve per farlo. In aggiunta, abbiamo un impressionante aumento delle conoscenze in materia di algoritmi e strutture di dati. Ci vengono dalle ricerche sulla IA ristretta, fatte cioè per risolvere problemi specifici, come giochi, diagnosticare malattie, guidare macchine, prevedere il mercato azionario. Benché nessuna di queste cose porterà di per sé a raggiungere l’IA, abbiamo una montagna di algoritmi eccezionali. Stiamo accedendo a dati dalla memoria, riconosciamo pattern, ricreiamo il ragionamento e l’apprendimento. Il mio approccio nell’IA è di prendere le funzioni di alto livello comprese dalla psicologia cognitiva e di immaginare come riprodurre ciascuna di queste (ragionamento, apprendimento…) con gli algoritmi messi a punto dalla scienza informatica di frontiera, così da avere una convergenza di psicologia cognitiva e algoritmi informatici. Esiste dunque questo approccio "integrativo" all’IA. Poi, naturalmente, hai dalla tua la legge di Moore e i progressi nell’hardware che essa prevede.
 
Top
0 replies since 3/4/2010, 11:09   603 views
  Share