La singolarità è vicina?

Recentemente gli amici di Samgha hanno pubblicato un interessante articolo sul lavoro di Ray Kurzweil e sulla sua idea che la singolarità oltre la quale l'intelligenza artificiale eguaglierà e supererà  quella umana è vicina. Dopo  "The Age of Spiritual Machines", il futurologo Kurzweil torna sul tema, forte di una massicia documentazione sulla crescita esponenziale delle tecnologie. L'idea è che se le interfacce uomo-macchina hanno avuto uno sviluppo  impetuoso diventando sempre più raffinate, allora ci sarà un momento di "transizione di fase"  in cui la complicazione si trasformerà in autentica complessità.Quello di Kurzweil è un discorso "muscolare", basato sull'estrapolazione di tecnologie ancora in fase embrionale- il vizio di sempre dell'IA!- e su un'idea di progresso ancora molto diffusa. Vale dunque la pena considerare più da vicino le sue tesi.  Exponentialgrowth-kurzweil
Al di là della  ben nota considerazione che "è difficile fare previsioni, specialmente sul futuro" ( Niels Bohr), la suggestione di Kurzweil implica la realizzazione di alcune condizioni ed ipotesi  tutt'altro che ovvie. Quella fondamentale è che la tecnologia possa modellare completamente il sistema nervoso umano. In realtà le nano-biotecnologie, che lavorano sull'ordine dei nanometri, sono ben lontane da queste possibilità: una cosa è ibridare un semiconduttore con un "quantum dot", un'altra modellare strutture naturali estremamente "intrecciate". La fisica quantistica impone limiti severi che equivalgono ad accorgersi di avere mani  troppo grandi per manipolare le viti sottili che ci interessano.  Non dimentichiamo  che ciò che cerchiamo di riprodurre in laboratorio è frutto di un'evoluzione lunghissima, bisogna dunque  estendere l'ipotesi di partenza anche alla simulazione di quel  bagaglio genetico che orienta la "costruzione" dell'essere umano.Inoltre, i materiali per realizzare il progetto genetico sono presi dal mondo esterno, e dev'esserci perciò una piena compatibilità tra la struttura fisica del sistema e l'ambiente che lo circonda, cosa che in natura si realizza tramite complessi processi di auto-organizzazione che culminano in quell'equilibrio dinamico che è il metabolismo.Ecco che siamo passati dalla proposizione iniziale, la completa simulazione del sistema nervoso, ad un progetto  assai più ampio che coinvolge la mente ed il mondo ed implica la realizzazione di un intero organismo artificiale in grado di vivere nel nostro ambiente.A questo punto diventa piuttosto problematico definire cosa vuol dire "comparare" le prestazioni umane con quelle artificiali. Ad esempio è legittimo chiedersi se una struttura di questo tipo realizza il task assegnato  per una via simile alla nostra o radicalmente diversa. Un esempio ben noto è il gioco degli scacchi.
Ormai da parecchi anni le varie versioni di Deep Blue  battono regolarmente in partite singole e persino in interi match i grandi maestri, ma lo fanno con una completa  assenza di quello che chiamiamo "stile".Infatti il giocatore umano tende a suggerire all'avversario un modello cognitivo per indurlo in errore. Le più recenti battaglie tra Karpov e Kasparov  sono state singolari esperienze di crossing mimetico: Karpov giocava con l'aggressività tattica di Kasparov e quest'ultimo adottava invece una strategia posizionale simile a quella del suo storico nemico, ognuno giocava contro l'altro utilizzando il "modello" dell'avversario!
Kurzweil e la sua IA futurista  fa insomma lo stesso passo falso di certe tendenze delle attuali neuroscienze, e lo fa per motivi che stanno al confine sottile  tra l'idealismo scientifico, lo spettacolo tecnologico e la promozione commerciale: identifica i "meccanismi" del pensiero con il loro grado esteriore di complessità architettonica, concludendo che a parità di "ingranaggi" seguono funzioni e prestazioni simili.Mentre la prima condizione è ragionevolmente necessaria, la sua conseguenza non è affatto scontata perchè bisognerebbe dimostrare che l'organismo artificiale è un grado di avere non soltanto processi cognitivi simili ai nostri nelle prestazioni (ps:  più o meno, è questo il famoso Test di Turing, una valutazione "operativa" di " "intelligenza"), ma anche di poter produrre un mondo interiore come risposta autonoma agli input esterni, quegli stati di radicale soggettività (coscienza, qualia) da cui dipende ad esempio la creatività e che rendono unico ogni essere umano.E per questo non basta un criterio di brute force come quello di Kurzweil, basato sulla quantità di bit elaborati,ma bisogna piuttosto indagare  le connessioni profonde tra diversi modelli di fisica e  di computazione per comprendere se possono supportare  qualcosa di simile ad una "coscienza". Un esempio di questo tipo è il modello del Quantum Brain, in cui una sintassi derivata dalla teoria quantistica dei campi viene utilizzata per descrivere una super-rete neurale in grado di dar luogo anche ad una coscienza dall' accoppiamento mente-mondo. E' evidente che siamo già molto lontani dall'impostazione neo-meccanicista di  Ray Kurzweil.
Un modo più raffinato di affrontare questi problemi anima ad esempio la rivista diretta da Antonio Chella dell'Università di Palermo, l'International Journal of Machine Consciousness , dove però la risposta passa attraverso un radicale ripensamento non soltanto di cos'è la coscienza ma sopratutto di cosa intendiamo per "macchina", ricordando che con questo termine non si indica un insieme di ingranaggi, ma ci si riferisce piuttosto ad un modello di mondo fisico e di informazione di cui la macchina è soltanto l'implementazione ultima.
  • ignazio licata |

    Caro Ruggero,
    A parte la tua riflessione sull’entanglement ( che va presa come una metafora proprio come faccio alla fine de La Logica Aperta, libro scritto anche in conseguenza della mia collaborazione con l’ultimo Varela), qui siamo tutti d’accordo! Quello che comincia a diventare preoccupante è il numero di fraintendimenti: a) parlo di cognizione umana, strizzando letterariamente l’occhio all’ultimo “problematico” Dick ( a proposito del “rischio della fallacia”) e si intende che stia parlando di “androidi”; b) Faccio alcuni precisi riferimenti a questa caratteristica (per adesso unica) della mente umana di altro-dire il mondo ( preferisco questo termine più ampio rispetto a meta-fisica), e ne sottolineo il carattere non-Turing ( appunto, ancora La Logica Aperta: noi abbiamo continue transizioni di apertura logica, cambiamo codici, giochiamo con le parole, inventiamo significati in una dinamica complessa tra mente e mondo), e sembra che io abbia giocato al futurologo macchinista!!!
    Sono citati nel mio post ben due articoli , quello di Stu Kauffman e quello mio, in cui la tesi della non-turing computabilità ( e dunque l’insufficienza di modelli meccanici) per la comprensione della cognizione umana è chiaramente espressa.Per non parlare di quello precedente sulla “singolarità”, che ha avuto l’onore di essere citato nel DizionarioInterdisciplinare su Sciena & Fede.
    Infine ed in fondo, il mio intento era sottilmente “Pasquale” : essere o non essere d’accordo su “Dio”, avere Qualia diversi sull’arte, assegnare “pesi semantici” non paragonabili a persone e cose, è segno della nostra radicale soggettività e complessità.
    Ed evidentemente lo è anche questo post.

  • Ruggero Rapparini |

    Caro Ignazio,
    entro in ritardo in questa appassionante discussione e scopro subito le mie carte: sono completamente d’accordo con il punto di vista di Rita Benigno (che non ho il piacere di conoscere) e in particolare mi piacciono i suoi riferimenti a Lucas (ma è davvero datato?) e a Penrose.
    Quanto a Lucas: “We are not discussing whether machines or minds are superior, but whether they are the same” a cui fa seguito “What is at stake in the mechanist debate is not how the minds are, or might be, brought into being, but how they operate. It is essential for the mechanist thesis that the mechanical model of the mind shall operate according to mechanican principles, that is, that we can understand the operation of the whole in terms of the operation of its parts…”. Questa potrebbe essere presa come definizione di una macchina in termini astratti senza riferimenti a viti, bulloni e ingranaggi di sorta!
    Come è ben noto anche Penrose ha formulato piu’ tardi in modo piu’ articolato il problema “whether actual physical systems (presumably including human brains) – subject as they are to precise physical laws – are able to perform more than, less than or precisely the same logical and mathematical operations as Turing machines”.
    Questa lunga introduzione mi è sembrata necessaria per illustrare la necessità di rispondere a questioni “fondanti” ed evitare di cadere in sterili dibattiti su presunti meccanismi neurali, quantistici o meno, che dovrebbero essere alla base dell’emergenza in una simulazione meccanicistica del funzionamento del cervello.
    Sono convinto che la coscienza non potrà emergere al momento della ‘singolarità’ (ma è proprio questo che voleva dire R.K. o è semplicemente un’estrapolazione dovuta ad una certa misura di wishful thinking) senza tener conto della dimensione psicologica della mente. La determinazione dei meccanismi neurali del cervello porterà soltanto ad una pura simulazione di ‘computational skills’ che è poi quello che puo’ fare anche una macchina. Pertanto who cares?
    E qui devo citare Erwin Schroedinger (Mind and Matter): “The reason why our sentient and thinking ego is met nowhere within our scientific world picture can easily be indicated in seven words: because it is itself that world picture. It is identical with the whole and therefore it cannot be contained in it as part of it”.
    Varela esprimerà questo concetto in termini di chiusura di un sistema che non è mai separabile dai suoi domini di interazione. L’intierezza di un sistema è rappresentata dalla sua chiusura organizazzionale. Il tutto non è la somma delle sue parti, è la chiusura organizazzionale delle sue parti.
    E ancora, Jung parla del sé come dell’immagine della totalità ed intierezza della psiche, in questo riallacciandosi alla filosofia buddista che si chiede come possa l’osservatore percepire sé stesso.La percezione di sè stesso dall’interno avviene a causa del concetto di “entanglement”, un concetto quantistico, introdotto da Schroedinger per spiegare la non-località, dalla caratteristica straordinaria secondo cui due sistemi fisici per quanto separati, una volta che abbiano interagito, sono descritti da un unico sistema quantistico globale ed è impossibile pensarli come due oggetti individuali.
    Il passo allora è breve per arrivare alla seguente conclusione basata sulla logica quantistica: l’osservatore (il cervello) fa parte del mondo fisico (l’osservato) la cui rappresentazione (qualia) generata dal cervello, include la rappresentazione del cervello stesso.
    La mente è il quale del cervello (intesa come rappresentazione dei meccanismi neurali – qualsiasi essi siano): questo è come l’osservatore percepisce se stesso, dall’interno. Cosi’ emerge la coscienza.
    Postulando la coincidenza del mondo (l’osservato) e della mente (l’osservatore) come creazioni del cervello, l’emergenza della cognizione cosciente da un background quantistico viene introdotta in modo naturale.
    Prerequisito per questa conclusione è la definizione del cervello come organo sensoriale (buddismo) alla pari con gli altri cinque sensi. Cosi’ come, per esempio l’occhio percepisce la luce, ecc., il cervello percepisce (‘sente’) la mente.

  • Rita Benigno |

    Caro ParkaDude,
    mi scuso se rispondo con ritardo al tuo post. Semplicemente non ne ero a conoscenza e, a dire il vero, l’ho scoperto questa sera quasi per caso.
    Ti ringrazio per gli apprezzamenti, forse immeritati. Io ho cercato soltanto di esprimere un mio punto di vista, che è essenzialmente umanistico non essendo io “un’addetta ai lavori” nel Vs. campo. Il mio approccio, infatti (Ignazio ben lo sa), è strutturato sempre dal punto di vista filosofico, non potendo certo io affrontare un discorso tecnico-scientifico rispetto al quale sono una dilettante. Non a caso ho citato John Roger Searle, che è appunto un filosofo – allievo di John Austin e Peter Strawson.
    Searle, proseguendo gli studi di Austin sulla teoria degli atti linguistici, ha dato un posto preminente al concetto di “intenzione”, che egli considera uno stato della mente. Proprio le ricerche su intenzionalità e coscienza lo hanno condotto a criticare profondamente il progetto dell’AI forte: secondo la sua teoria le operazioni di computazione sono esclusivamente sintattiche e riguardano la mera manipolazione di simboli, mentre la mente ha dei “contenuti” ed i simboli che essa adopera hanno una “semantica” – possiedono cioè un significato.
    Questa tesi è stata supportata dall’esperimento mentale della “stanza cinese” (che credo che tu conosca, poiché è molto noto), che ha avuto lo scopo di dimostrare che la semplice manipolazione di simboli non realizza automaticamente una semantica (cioè non garantisce che il sistema comprenda ciò che sta facendo).
    Per quanto attiene, in particolare, all’errore di logica formale riferito al passaggio dai primi due esempi al terzo, non è così. Nel senso che – sempre secondo l’impostazione teorica di Searle – i fenomeni mentali sono primitivi: essi non sono cioè riducibili a fenomeni più elementari e sono reali allo stesso modo di un qualsiasi fenomeno biologico (quale è, per esempio, la digestione).
    Questa, dunque, la posizione filosofica alla quale mi sono riferita nelle mie riflessioni – unitamente all’altra altrettanto interessante di Hubert Dreyfus, secondo il quale «(…) Un cervello in una bottiglia o un computer potrebbero non essere più capaci di rispondere a nuovi tipi di situazioni poiché la nostra abilità di essere in una situazione potrebbe dipendere, non solo dalla flessibilità del nostro sistema nervoso, ma anche dalla nostra capacità pratica. Dopo qualche tentativo di programmare questo tipo di macchina, potrebbe diventare manifesto che ciò che distingue le persone dalle macchine, per quanto intelligentemente costruite, non è un’anima astratta, universale, immateriale ma un corpo concreto, specifico, materiale» (Che cosa non possono fare i computer. I limiti dell’intelligenza artificiale, 1972).
    Quanto a Godel … mi scuso per essermi spiegata male, per necessità di sintesi (il post mi sembrava eccessivamente lungo, per cui ho ritenuto una scortesia dilungarmi oltre). Comunque … sono mentalmente partita dall’idea dell’equiparazione di un sistema di IA forte ad un sistema formale: a tal proposito, la differenza tra l’uomo e la macchina starebbe nel fatto che, di fronte a degli enunciati indecidibili, la mente dell’uomo è però sempre in grado di sviluppare e progettare strategie innovative per uscire da una situazione di scacco; capacità che invece non pare essere dell’automa.
    Se è forse vero, comunque, che ho tirato per i capelli questi argomenti all’interno del discorso, il mio tentativo non mi pare sia del tutto isolato. Vorrei ricordare a questo proposito il saggio di Lucas, “Mind, Machines and Godel”.
    Scherzando … magari mi consolo con il fatto che, con tale autorevole compagnia, il “mal comune” mi appare davvero un “mezzo gaudio”. 😉

  • ParkaDude |

    Caro Ignazio,
    intanto grazie per la risposta puntale ed articolata! Siccome penso che “cio’ di cui non si sa, bisogna tacere”, prima di spingermi oltre in eventuali approfondimenti, mi riservo di approfondire e documentarmi.
    >In realtà le reti hanno mostrato già le corde rispetto ad ogni progetto AI! Il problema è la rapida saturazione delle memorie e la scarsa plausibilità biologica.
    Questo diciamo che non riesco a capirlo bene ^^
    Io mi riferivo semplicemente agli automi cellulari (tra l’altro citati anche dal nostro RK).
    >Ecco, che vuol dire “possibile”? E’ sempre possibile per un dato sistema trovare un numero – chiave di variabili essenziali ed esaurienti? Si può sempre fare? In generale la risposta è “no”.
    D’accordissimo su questo punto.
    Con “possibile” intendevo, in maniera molto pratica, l’idea di includere tutti i dati che riusciamo a racimolare, di qualunque natura esse siano, in un modello. Mi spiego meglio: immagina di dover modellizzare un fenomeno biologico i cui meccanismi sono stati compresi solo superificialmente. Quel che si puo’ fare e’ raccogliere informazioni da fonti diverse nella speranza di descrivere il fenomeno (ovviamente molti dati risulteranno ridondanti o addirittura nocivi per l’accuratezza delle previsioni). Certo occorre tener conto di tutti i bias e gli ostacoli cui andiamo incontro, primo fra tutti quello, appunto, di essere
    > immersi nel mondo
    Per quanto riguarda l’idea che
    > è ben difficile fare “minestroni” se vogliamo capire qualcosa del mondo
    non posso ovviamente che essere d’accordo.
    Pensando pero’ a come si procede in ambito di modellistica dei fenomeni biologici (che cito in continuazione solo perche’ presumo di conoscere l’argomento a sufficienza), quel che facciamo e’ proprio creare dei gran minestroni di dati, e lasciando che siano poi le AI, l’ipereuristica etc. etc. a scremare e a creare un modello.
    Se questo sia poi, sul piano formale, solo una versione piu’ complicata di
    >interpolare dati con polinomi
    non lo so! Ci sto pensando proprio in questo momento.
    Le tue segnalazioni di titoli e di link mi fanno felice, poiche’ ne vado ghiotto. E va da se’ che, come avrai intuito dalle mie risposte, necessito di chiarirmi alcuni concetti, soprattutto in ambito di definizioni.
    Se non ricordo male fu Scaruffi (http://www.scaruffi.com/cogn.html) a paragonare gli informatici che usano l’AI a dei ragazzi appena entrati nel parco dei divertimenti, che saltano su tutte le giostre per provarle, senza stare a farsi molte domande su come davvero le giostre funzionino.
    S.

  • Ignazio Licata |

    TypePad HTML EmailCaro Simone,
    In realtà le reti hanno mostrato già le corde rispetto ad ogni progetto AI! Il problema è la rapida saturazione delle memorie e la scarsa plausibilità biologica. Da qui originano i modelli di “Quantum Brain”, che sono modelli formali di super-reti in cui si creano e distruggono continuamente nodi in relazione all’accoppiamento con l’esterno ( dunque: possibilità di dimenticare” o cmq ristrutturare l’intero panorama cognitivo…..), e qui torniamo al tema di riconsiderare criticamente i modelli usati ed i loro presupposti epistemologici.
    No, il riduzionismo è qualcosa di diverso dal sano rasoio di Occam!!! Per una riflessione più ampia non posso che rimandarti ai bei lavori di due Nobel per la fisica, il già citato Anderson con “More is Different” e Laughlin , “Un Universo Diverso”(Codice), sulla fisica dell’emergenza.Qui ci limiteremo a ricordare che il riduzionismo accetta l’ipotesi che smontando un sistema nei suoi elementi se ne capisce la totalità. Questo è un assunto molto ragionevole, necessario ma non sufficiente. Infatti su scale diverse (appunto, more is different), possono comparire proprietà assolutamente non deducibili, anche se ovviamente compatibili, con le proprietà dei “mattoni”. Ad esempio, studiando un esperimento di diffrazione degli elettroni nessuno potrebbe ricavare la superfluidità, che è un fenomeno collettivo emergente. Un altro assunto del riduzionismo infatti, collegato all’idea dei “mattoni”, è che descritto un livello gli altri possono dedursi da questo, ed è dunque sempre possibile una “teoria finale”. Che l’idea è balzana se pensiamo a sistemi davvero complessi è evidente, ma cito quest’accezione per venire alla tua idea di ” un approccio modellistico-minestrone che tiene in considerazione quante piu’ varibili (anche descrittive) possibile?”. Ecco, che vuol dire “possibile”? E’ sempre possibile per un dato sistema trovare un numero – chiave di variabili essenziali ed esaurienti? Si può sempre fare? In generale la risposta è “no”. Ci sono molti sistemi in cui se scegli certe variabili ne escludi automaticamente altre. E questo perchè nei sistemi complessi non è importante solo il range di scala ma anche gli obiettivi che ci proponiamo, le prospettive da cui scegliamo di osservare il sistema. Come ho detto più volte, siamo immersi nel mondo e non abbiamo l’occhio di Dio, dunque operiamo partizioni e scelte, e non sempre queste sono facili come nel caso micro- macro dei gas perfetti ( in un senso più tecnico vedi:Breuer, T, (1995) The impossibility of exact state self-measurements, Philosophy of Science 62 , 197-214)Questa è una cosa che si può facilmente illustrare con l’esempio dei test , che è poi un’applicazioe della teoria dei giochi dinamici: noi rispondiamo diversamente ad un test orientato alla politica rispetto ad un altro orientato ai nostri gusti sessuali, ma è lo stesso sistema ad essere interrogato. E non è chiaro quale super-test potrebbe contenere/generare entrambe le serie di risposte. In breve, come giustamente dici, è ben difficile fare “minestroni” se vogliamo capire qualcosa del mondo (altrimenti possiamo accontentarci di interpolare dati con polinomi, ed un pò di statistica, a volte è più onesto e pulito di tante teorie sballate). Per non restare nel vago, ti segnalo oltreai testi citati questo su un progetto in corso cui partecipo e dove si indaga proprio il problema delle variabili possibili:
    Minati, G. (2008) New Approaches for Modelling Emergence of Collective Phenomena, Polimetrica International Scientific Publ.
    Ma anche il mio: Licata, I. (2008) Vision as Adaptive Epistemology, http://arxiv.org/abs/0812.0115 .
    Infine, veniamo all giuste perplessità sugli “x.-ismi”. Meccanicismo ha un significato preciso in fisica classica, teoria classica della computazione, in dinamica c’è il meccanicismo determinista e non-determinista, in meccanica quantistica ci sono i processi U, evolutivi, determininabili tramite condizioni limite, ed i processi R, che non lo sono, assieme ad una generale informazione non-locale e “hidden”, e dunque non si sa se la nozione di “macchina” può essere estesa in ambito quantistico.E’ quello che dicevo nel post rimettere in discussione il concetto di “macchina”.
    Però tu preferisci curiosamente dare un significato indiretto al termine riferendoti al “libero arbitrio” che è termine non appartenente alla “cassetta degli attrezzi” dello scienziato. Ecco dunque che ritroviamo il problema delle nuove influenze ideologico-scientiste che nulla hanno a che fare con l’autentica attività dello scienziato che, come ricordava Feynman, è quella di produrre numeri verificabili con tanto di virgola e decimali.Ma visto che l’hai chiamato in ballo, parliamo pure del so-called libero arbitrio.Dal punto di vista operativo esso è meno strano ed indefinito di quanto sembri, e corrisponde al numero di scelte possibili che un sistema cognitivo ha a disposizione come risposte all’ambiente. Ed è stato, in questo senso, pure formalizzato nell’ambito della teoria dei sistemi dinamici: “State Variability and Psychopatological Attractors. The Behavioural Complexity as Discriminating Factor Between The Pathology and Normality Profiles” di PL Marconi, in “Processes of Emergence of Systems andd Systemic Properties” (Minati, Pessa, Abram Eds), World Scientific, 2009. Per inciso, questo modello ha una parentela con la mia Adaptive Epistemology.Certo, questo discorso è strettamente evolutivo, le risposte che un sistema genera sono figlie della sua storia di inter-relazioni, e mi dirai che non è di “questo” libero arbitrio che volevi parlare…….Ma poiché qui stiamo parlando di scienza e non di teologia, mi chiedo se necessariamente una discussione sull’IA deve sfociare in una posizione religiosa, svelando al suo centro non un dibattito scientifico,ma una “battaglia” idelogica sulle visioni del mondo.

  Post Precedente
Post Successivo