Singolarità tecnologica

Da Wikipedia, l'enciclopedia libera.
15 differenti liste di cambiamenti paradigmatici per la storia umana, inserite in un grafico in scala logaritmica, mostrano una crescita esponenziale. Le liste sono state preparate, tra gli altri, da Carl Sagan, Paul D. Boyer, Encyclopædia Britannica, American Museum of Natural History e University of Arizona e compilate da Ray Kurzweil.

Nella futurologia, una singolarità tecnologica è un punto, previsto nello sviluppo di una civilizzazione, dove il progresso tecnologico accelera oltre la capacità di comprendere e prevedere degli esseri umani moderni. La Singolarità può, più specificamente, riferirsi all'avvento di una intelligenza superiore a quella umana, e ai progressi tecnologici che, a cascata, si presume seguirebbero, salvo un importante aumento artificiale delle facoltà intellettive di ciascun individuo. Se una singolarità possa mai avvenire, è materia di dibattito.

Panoramica sulla singolarità[modifica | modifica wikitesto]

Concetto iniziale[modifica | modifica wikitesto]

Sebbene si creda comunemente che il concetto di singolarità sia nato negli ultimi 20 anni del XX secolo, esso nasce realmente negli anni cinquanta del 1900:

« Una conversazione centrata sul sempre accelerante progresso della tecnologia e del cambiamento nei modi di vita degli esseri umani, che dà l'apparenza dell'avvicinarsi di qualche fondamentale singolarità della storia della razza oltre la quale, gli affanni degli esseri umani, come li conosciamo, non possono continuare. »
(Stanislaw Ulam, maggio 1958, riferendosi ad una conversazione con John von Neumann)

Questa citazione è stata parecchie volte utilizzata fuori dal suo contesto ed attribuita allo stesso von Neumann, probabilmente a causa della grande fama ed influenza di questi.

Nel 1965, lo statistico I. J. Good descrisse un concetto anche più simile al significato contemporaneo di singolarità, nel quale egli includeva l'avvento di una intelligenza superumana:

« Diciamo che una macchina ultraintelligente sia definita come una macchina che può sorpassare di molto tutte le attività intellettuali di qualsiasi uomo per quanto sia abile. Dato che il progetto di queste macchine è una di queste attività intellettuali, una macchina ultraintelligente potrebbe progettare macchine sempre migliori; quindi, ci sarebbe una "esplosione di intelligenza", e l'intelligenza dell'uomo sarebbe lasciata molto indietro. Quindi, la prima macchina ultraintelligente sarà l'ultima invenzione che l'uomo avrà la necessità di fare. »

Ancora prima, nel 1954 lo scrittore di fantascienza Fredric Brown nel brevissimo racconto La risposta anticipava il concetto di singolarità tecnologica immaginando la costruzione di un "supercomputer galattico" al quale viene chiesto come prima domanda, dopo l'accensione, se esiste Dio; il supercomputer rispondeva "Ora sì".

La singolarità vingeana[modifica | modifica wikitesto]

Il concetto di singolarità tecnologica come è conosciuto oggi viene accreditato al matematico e romanziere Vernor Vinge. Vinge cominciò a parlare della Singolarità negli anni ottanta, e raccolse i suoi pensieri nel primo articolo sull'argomento nel 1993, con il saggio "Technological Singularity". Da allora questo è divenuto il soggetto di molte storie e scritti futuristici e di fantascienza.

Il saggio di Vinge contiene l'affermazione, spesso citata, secondo cui "entro trenta anni, avremo i mezzi tecnologici per creare una intelligenza sovrumana. Poco dopo, l'era degli esseri umani finirà."

La singolarità di Vinge è comunemente ed erroneamente interpretata come l'affermazione che il progresso tecnologico crescerà all'infinito, come avviene in una singolarità matematica. In realtà, il termine è stato scelto, come una metafora, prendendolo dalla fisica e non dalla matematica: mentre ci si avvicina alla singolarità, i modelli di previsione del futuro diventano meno affidabili, esattamente come i modelli della fisica diventano inefficaci in prossimità, ad esempio, ad una singolarità gravitazionale.

La singolarità è spesso vista come la fine della civilizzazione umana e la nascita di una nuova civiltà. Nel suo saggio, Vinge si chiede perché l'era umana dovrebbe finire, e argomenta che gli umani saranno trasformati durante la Singolarità in una forma di intelligenza superiore. Dopo la creazione di un'intelligenza sovrumana, secondo Vinge, la gente sarà, al suo confronto, una forma di vita inferiore.

Non è molto chiaro cosa debba intendersi, secondo Vinge, per nuove forme di civiltà. Vinge scrisse un racconto su delle macchine più intelligenti dell'uomo e su come esse concepiscono il mondo. Il suo editore gli disse che nessuno può essere in grado di scrivere un racconto simile, perché capire come un osservatore più intelligente dell'uomo vede il mondo è impossibile per l'uomo stesso. Nel momento in cui gli esseri umani costruiranno una macchina che sarà in grado di diventare più intelligente, inizierà una nuova era, che sarà vissuta da un punto di vista diverso: un'era che non sarà possibile qualificare a priori come bene o male, ma sarà semplicemente diversa.

La legge di Kurzweil dei ritorni accelerati[modifica | modifica wikitesto]

L'analisi storica del progresso tecnologico dimostra che l'evoluzione della tecnologia segue un processo esponenziale e non lineare come invece si sarebbe portati a pensare. Nel suo saggio, The Law of Accelerating Returns, Ray Kurzweil propone una generalizzazione della Legge di Moore che forma la base delle convinzioni di molta gente al riguardo della Singolarità. La Legge di Moore descrive un andamento esponenziale della crescita della complessità dei circuiti integrati a semiconduttore. Kurzweil estende questo andamento includendo tecnologie molto precedenti ai circuiti integrati ed estendendolo al futuro. Egli crede che la crescita esponenziale della legge di Moore continuerà oltre l'utilizzo dei circuiti integrati, con l'utilizzo di tecnologie che guideranno alla Singolarità.

La legge descritta da Ray Kurzweil ha in molti modi alterato la percezione della Legge di Moore da parte del pubblico. È un credo comune (ma errato) che la legge di Moore faccia previsioni che riguardino tutte le forme di tecnologia, quando in realtà essa riguarda solo i circuiti a semiconduttore. Molti futurologi utilizzano ancora il termine "Legge di Moore" per descrivere idee come quelle presentate da Kurzweil. Realizzare previsioni a lungo termine, almeno in parte corrette, su dove riuscirà ad arrivare la tecnologia, è praticamente impossibile. Ancora troppo spesso si pensa al progresso tecnologico come qualcosa che procede in maniera lineare, secondo quello che è la linea di progresso intuitiva.

Per esprimere il concetto in termini matematici, potremmo pensare di rappresentare tale velocità con una curva esponenziale. Ciò tuttavia non sarebbe ancora esatto; un andamento esponenziale, è infatti corretto, ma solo per brevi intervalli di tempo: se prendiamo in considerazione, per esempio, un periodo di 100 anni, una curva esponenziale, non risulterà corretta. Tipicamente i giornalisti stilano le loro previsioni, quando considerano il futuro, estrapolando la velocità d'evoluzione attuale per determinare ciò che ci si può aspettare nei prossimi 10 e magari pure 100 anni. Questo è ciò che Ray Kurzweil chiama intuitive linear view.

Quello che Kurzweil chiama the law of accelerating returns si può schematizzare nei seguenti punti:

  • lo sviluppo applica le risposte positive, in quanto metodo migliore derivato da una fase di progresso. Queste risposte positive costituiscono la base per il successivo sviluppo;
  • di conseguenza il tasso di progresso di un processo evolutivo aumenta esponenzialmente col tempo. Col tempo l'ordine di grandezza delle informazioni che vengono incluse nel processo di sviluppo aumenta;
  • di conseguenza il guadagno in termini di tecnologia si incrementa esponenzialmente;
  • in un altro ciclo di risposte positive, di un particolare processo evolutivo, queste vengono utilizzate come trampolino di lancio per un ulteriore progresso. Ciò provoca un secondo livello di sviluppo esponenziale e il processo di sviluppo esponenziale cresce esso stesso in maniera esponenziale;
  • lo sviluppo biologico è anch'esso uno di tali sviluppi;
  • lo sviluppo tecnologico fa parte di tale processo evolutivo. Effettivamente, la prima tecnologia che ha generato la specie ha costituito la base per lo sviluppo della tecnologia successiva: lo sviluppo tecnologico è una conseguenza ed una continuazione dello sviluppo biologico;
  • un determinato paradigma (=metodo) (come per esempio l'aumento del numero di transistor sui circuiti integrati per rendere più potenti i calcolatori) garantisce crescita esponenziale fino a che non esaurisce il suo potenziale; dopo accade un cambiamento che permette allo sviluppo esponenziale di continuare.

Sei epoche di Kurzweil[modifica | modifica wikitesto]

Se si applicano questi principi all'evoluzione della Terra, è possibile notare come siano aderenti al processo di sviluppo che è avvenuto:[1]

  • I epoca: Fisica e chimica, informazioni nelle strutture atomiche. È possibile paragonarla alla creazione della cellula, combinazioni di amminoacidi in proteine e acidi nucleici (RNA, successivamente DNA) ossia l'introduzione del paradigma della biologia.
  • II epoca: Biologia, informazioni nel DNA. Conseguentemente il DNA ha fornito un metodo "digitale" per registrare i risultati degli esperimenti evolutivi.
  • III epoca: Cervelli, informazioni in configurazioni neurali. L'evoluzione della specie ha unito il pensiero razionale.
  • IV epoca: Tecnologia, informazione nei progetti hardware e software. Questo ha spostato in maniera decisiva il paradigma dalla biologia alla tecnologia.
  • V epoca: Fusione tecnologia e intelligenza umana, la tecnologia padroneggia i metodi della biologia (inclusi quelli dell'intelligenza umana). Ciò che sta per avvenire, sarà il passaggio da intelligenza biologica a una combinazione ibrida di intelligenza biologica e non biologica.
  • VI epoca: L'universo si sveglia, l'intelligenza umana enormemente espansa (per lo più non biologica) si diffonde in tutto l'universo.

Esaminando i tempi di questi passi, si può notare come il processo abbia continuamente accelerato. L'evoluzione delle forme di vita, per esempio, ha richiesto parecchi milioni di anni per il primo passo (es. la cellule primitive), ma dopo il processo ha sempre più accelerato. Ora la "tecnologia biologica" è diventata troppo lenta rispetto alla tecnologia creata dall'uomo, che utilizza i suoi stessi risultati per andare avanti in maniera nettamente più veloce di quanto non possa fare la natura.

Curve di crescita asintotiche[modifica | modifica wikitesto]

Alcuni presumono che una sempre più rapida crescita tecnologica arriverà con lo sviluppo di una intelligenza superumana, sia potenziando direttamente le menti umane (forse con la cibernetica), o costruendo intelligenze artificiali. Queste intelligenze superumane sarebbero presumibilmente capaci di inventare modi di potenziare se stesse anche più velocemente, producendo un effetto feedback che sorpasserebbe le intelligenze preesistenti.

Semplicemente avere una intelligenza artificiale allo stesso livello di quella umana, presumono altri, potrebbe produrre lo stesso effetto, se la Legge di Kurzweil continua indefinitamente. All'inizio, si suppone, una simile intelligenza dovrebbe essere pari a quella umana. Diciotto mesi dopo sarebbe due volte più veloce. Tre anni dopo, sarebbe quattro volte più veloce, e così via. Ma dato che le Intelligenze Artificiali accelerate stanno, in quel momento, progettando i computer, ogni passo successivo impiegherebbe circa diciotto mesi soggettivi e proporzionalmente meno tempo reale ad ogni passo. Se la Legge di Kurzweil continua ad applicarsi senza modifiche, ogni passo richiederebbe metà del tempo. In tre anni (36 mesi = 18 + 9 + 4,5 + 2,25 + ...) la velocità del computer, teoricamente, raggiungerebbe l'infinito. Questo esempio è illustrativo, e comunque, molti futurologi concordano che non si può presumere che la legge di Kurzweil sia valida anche durante la Singolarità, o che essa possa rimanere vera letteralmente per sempre, come sarebbe richiesto per produrre, in questo modo, una intelligenza realmente infinita.

Una possibile conferma all'inattuabilità di una tale singolarità tecnologica, riguardante i limiti dello sviluppo di un'intelligenza sostenibile, provenne qualche tempo fa da un noto cosmologo inglese, Martin Rees, il quale sostenne che l'attuale dimensione organica del cervello umano, sia in realtà già il limite superiore massimo della capacità animale di sviluppare concetti intelligenti, oltre il quale le informazioni tra le sinapsi (trasportate alla velocità tuttora insuperabile della luce) impiegherebbero troppo tempo per costituire ragionamenti costruttivi ed evolutivi esaurienti, e sarebbero limitate all'accumulo di concetti intesi come memoria a lungo termine. Per intendersi, un cervello che fosse il doppio di quello di un essere umano, immagazzinerebbe il doppio di dati possibili ma al doppio del tempo e alla metà della velocità di apprendimento, (e così via in maniera esponenziale), rendendo, di fatto, negativi i progressi. Se tale teorema venisse applicato anche ai sistemi informatici evoluti quindi, avremo anche qui un limite fisico superiore, oltre il quale la distanza fisica tra i processori e le conseguenti ipotetiche velocità di elaborazione dati originali, sarebbero soggette a limiti che seppur elevati, culminerebbero al più in una super-memoria di massa più che in un super-computer dotato di intelligenza infinita.

Tipi di singolarità tecnologiche[modifica | modifica wikitesto]

I futurologi hanno speculato su un ampio spettro di tecnologie possibili che potrebbero giocare un ruolo nel realizzare la Singolarità. L'ordine di arrivo di queste tecnologie viene spesso discusso, e naturalmente alcune di queste accelereranno lo sviluppo delle altre, alcune sono dipendenti dallo sviluppo di altre, ecc. Esistono molte dispute tra le previsioni di molti futurologi, ma le seguenti descrivono alcuni dei temi più ricorrenti tra di esse.

Intelligenza artificiale[modifica | modifica wikitesto]

Una intelligenza artificiale capace di migliorare sé stessa in modo ricorsivo oltre il livello dell'intelligenza umana, conosciuta come una seed AI (seme), se possibile, causerebbe probabilmente una singolarità tecnologica. Semplicemente una di queste AI, credono in molti, sarebbe necessaria per produrre la Singolarità. La maggioranza dei Singolaritisti credono che la creazione di una seed AI sia il mezzo più probabile con il quale l'umanità raggiungerà la Singolarità. Molto del lavoro del Singularity Institute è fondato su questa premessa.

Nanotecnologia[modifica | modifica wikitesto]

I pericoli potenziali della nanotecnologia sono ampiamente conosciuti anche al di fuori dei circoli dei futurologi e dei transumanisti, e molti Singolaritisti considerano la nanotecnologia controllata dagli uomini come uno dei maggiori rischi esistenziali che l'umanità si trova di fronte (fate riferimento al concetto di Grey goo per un esempio di come questo rischio potrebbe diventare reale). Per questa ragione, spesso essi credono che la nanotecnologia dovrebbe essere preceduta dalla seed AI, e che la nanotecnologia non dovrebbe essere a disposizione delle società prima della Singolarità.

Altri sostengono gli sforzi per creare una nanotecnologia molecolare o zettatecnologia, credendo che la nanotecnologia può essere sicura anche se usata prima della Singolarità o può accelerare l'arrivo di una singolarità benefica.

Tecnologie pre-singolarità[modifica | modifica wikitesto]

Altre tecnologie, (ad es. una struttura di comunicazione connessa globalmente a banda elevata e senza fili; una rete di computer infetti da virus o worm interconnessi tra loro), sebbene non siano, probabilmente, in grado di produrre una singolarità di per sé stesse, sono considerate come segni di un livello di avanzamento tecnologico che produrrà la Singolarità.

Per alcuni, una delle tecnologie più anticipate è la possibilità di potenziamento dell'intelligenza umana:

Interfacce dirette mente-computer potenzialmente potrebbero aumentare la memoria degli individui, la loro capacità elaborativa, l'abilità comunicativa e le conoscenze. Anche una interfaccia tra computer e uomo più tradizionale potrebbe essere vista come un progresso che aumenta l'intelligenza: i sistemi esperti tradizionali, i sistemi di computer che riconoscono e prevedono il comportamento umano, il software di riconoscimento vocale e di riconoscimento della scrittura, etc.

L'aumento dell'intelligenza attraverso i nuovi medicinali e l'ingegneria genetica potrebbe anche diventare una possibilità per gli umani esistenti, oltre a quello che è permesso dalle moderne sostanze nootropiche. Ai neonati potrebbe essere migliorata l'intelligenza nello stesso modo (vedi ingegneria genetica).

Tecnologie avanzate[modifica | modifica wikitesto]

Sebbene la seed AI e la nanotecnologia siano considerate le più probabili tecnologie che possano produrre una Singolarità, altri hanno speculato sulla possibilità che altre tecnologie avanzate arrivino prima della Singolarità. Queste tecnologie, sebbene improbabili, sono spesso utilizzate da alcuni futurologi (come Ray Kurzweil) come una "prova" della Singolarità—anche se la seed AI e la nanotecnologia molecolare non saranno state inventate entro la fine del XXI secolo, altre tecnologie potrebbero causare la Singolarità.

Il mind uploading, per esempio, è un metodo alternativo proposto per creare una intelligenza artificiale—invece di programmare una intelligenza, essa sarebbe prodotta partendo dall'intelligenza umana già esistente. Comunque, il livello tecnologico necessario per scansionare il cervello umano alla risoluzione necessaria per un mind upload rende improbabile il mind uploading in un mondo pre-Singolarità. La capacità elaborativa dei computer e la comprensione delle scienze cognitive necessarie è altrettanto fondamentale.

Altri, come George Dyson in Darwin Among the Machines, hanno speculato che una rete di computer sufficientemente complessa potrebbe produrre una "swarm intelligence". Gli sviluppatori dedicati all'IA potrebbero utilizzare le accresciute capacità elaborative per creare reti neurali artificiali così grandi e potenti che potrebbero diventare genericamente intelligenti. I sostenitori della Intelligenza Artificiale Amichevole vedono questo come un tentativo di risolvere il problema di creare una AI utilizzando la "forza-bruta" (testando, letteralmente, tutte le possibilità fino a che non si ottiene il risultato voluto), e un modo che potrebbe produrre forme di intelligenza artificiale inaccettabilmente pericolose.

Tecnologie post singolarità[modifica | modifica wikitesto]

Le speculazioni sulla Singolarità spesso riguardano i supercomputer esistenti dopo la Singolarità stessa. Alcuni ricercatori sostengono che anche senza il quantum computing, utilizzando una forma avanzata di nanotecnologia, la materia potrebbe essere manipolata in modo da avere capacità elaborative inimmaginabili. A tale materiale ci si riferisce spesso, tra i futurologi, come computronium. Alcuni pensano che interi pianeti o stelle potrebbero essere convertiti in computronium, creando rispettivamente degli "Jupiter brain" e "Matrioshka Brain".

Implicazioni sociali della singolarità tecnologica[modifica | modifica wikitesto]

Secondo molti ricercatori, lo sviluppo tecnologico che conduce alla Singolarità avrà importanti ricadute su molti aspetti della nostra vita quotidiana, sia a livello individuale, sia sociale. A livello politico, l’avanzamento della tecnologia permette la creazione di forme di aggregazione alternative allo Stato moderno: anche senza considerare la colonizzazione di altri pianeti (prospettiva comunque analizzata da molti transumanisti, tra cui Ray Kurzweil), esistono già progetti concreti per la creazione di comunità autonome di stampo libertario in acque non territoriali – come la Seasteading Foundation di Patri Friedman (nipote del premio Nobel Milton Friedman).

Altri studiosi – tra cui il fondatore dell’Artificial General Intelligence Research Institute Ben Goertzel [2] e il co-fondatore degli iLabs Gabriele Rossi [3] – contemplano esplicitamente la possibilità di una “società nella società”, che viva dunque “virtualmente” nei rapporti tra gli aderenti e non sia confinata in un preciso spazio fisico (una estremizzazione di quello che già oggi avviene, in modo primitivo, con Second Life e i social network).

L’avvicinamento alla Singolarità cambierà infine economia e giustizia[4]. La disponibilità di Intelligenze Artificiali rivoluzionerà il mercato del lavoro, introducendo, oltre alle spesso citate problematiche etiche, nuove sfide produttive[5] ; l’allungamento radicale della vita richiederà cambiamenti in tutti i settori coinvolti, dalla sanità alle assicurazioni[6]. Infine - realizzando un sogno che ebbe già Norbert Wiener, padre della cibernetica - la crescita esponenziale nella conoscenza della realtà e il miglioramento dei sistemi esperti permetterà una graduale sostituzione della giustizia umana con una più efficiente e oggettiva giustizia automatica[7].

Critiche[modifica | modifica wikitesto]

Ci sono due tipi principali di critiche alla previsione della Singolarità: quelle che mettono in dubbio che la Singolarità sia probabile o anche possibile e quelli che si domandano se sia desiderabile o non piuttosto da ritenere pericolosa e da avversare per quanto possibile

La possibilità e la probabilità della singolarità[modifica | modifica wikitesto]

Alcuni credono che una singolarità tecnologica non abbia molte possibilità di realizzarsi. I detrattori si riferiscono ironicamente ad essa come "l'assunzione in cielo per nerds".

La maggior parte delle speculazioni sulla Singolarità presumono la possibilità di una intelligenza artificiale superiore a quella umana. È controverso se creare una simile intelligenza artificiale sia possibile. Molti credono che i progressi pratici nell'intelligenza artificiale non abbiano ancora dimostrato questo in modo empirico. Vedi la voce sull'intelligenza artificiale per i dettagli sul dibattito.

Alcuni discutono sul fatto che la velocità del progresso tecnologico stia aumentando. La crescita esponenziale del progresso tecnologico potrebbe diventare lineare o flettersi o potrebbe cominciare ad appiattirsi in una curva che permette una crescita limitata.

La desiderabilità e la sicurezza della singolarità[modifica | modifica wikitesto]

Ci sono state spesso delle speculazioni, nella fantascienza e in altri generi, che una AI avanzata probabilmente potrebbe avere degli obiettivi che non coincidono con quelli dell'umanità e che potrebbero minacciarne l'esistenza. È concepibile, se non probabile, che una IA (Intelligenza Artificiale) superintelligente, semplicemente eliminerebbe l'intellettualmente inferiore razza umana, e gli umani sarebbero incapaci di fermarla. Questo è uno dei maggiori problemi che preoccupano sia i sostenitori della Singolarità che i suoi critici, ed era il soggetto di un articolo di Bill Joy apparso su Wired Magazine, intitolato Perché il futuro non ha bisogno di noi.

Alcuni critici affermano che le tecnologie avanzate sono semplicemente troppo pericolose per noi per permettere che si causi una Singolarità, e propongono che si lavori per impedirla. Forse il più famoso sostenitore di questo punto di vista è Theodore Kaczynski, l'Unabomber, che scrisse nel suo "manifesto" che l'IA potrebbe dare il potere alle classi elevate della società di "semplicemente decidere di sterminare la massa dell'umanità". In alternativa, se l'IA non venisse creata, Kaczynski sostiene che gli umani "saranno ridotti al livello di animali domestici" dopo che ci sarà stato un sufficiente progresso tecnologico. Parte degli scritti di Kaczynski sono stati inclusi sia nell'articolo di Bill Joy che in un recente libro di Ray Kurzweil. Deve essere notato che Kaczynski non solo si oppone alla Singolarità, ma è un Luddista e molte persone si oppongono alla Singolarità senza opporsi alla tecnologia moderna come fanno i Luddisti.

Naturalmente, gli scenari come quelli descritti da Kaczynski sono considerati come indesiderabili anche dai sostenitori della Singolarità. Molti sostenitori della Singolarità, comunque, non ritengono che questi siano così probabili e sono più ottimisti sul futuro della tecnologia. Altri credono che, senza riguardo ai pericoli che la Singolarità pone, essa è semplicemente inevitabile—noi dobbiamo progredire tecnologicamente perché non abbiamo un'altra strada da seguire.

I sostenitori dell'Intelligenza Artificiale Amichevole, e in particolar modo il SIAI, riconoscono che la Singolarità è, potenzialmente, molto pericolosa e lavorano per renderla più sicura creando seed AI che agiranno benevolmente verso gli umani ed elimineranno i rischi esistenziali. Questa idea è così connaturata alle Tre Leggi della Robotica di Asimov, che impediscono alla logica di un robot con intelligenza artificiale di agire in modo malevolo verso gli umani. Comunque, in uno dei racconti di Asimov, a dispetto di queste leggi, i robot finiscono per causare danno ad un singolo essere umano come risultato della formulazione della Legge Zero. La struttura teoretica della Intelligenza Artificiale Amichevole viene attualmente progettata dal Singolaritiano Eliezer Yudkowsky.

Un altro punto di vista, sebbene meno comune, è che l'Intelligenza Artificiale alla fine dominerà o distruggerà la razza umana, e che questo scenario è desiderabile. Il Dr. Prof. Hugo de Garis è il più conosciuto sostenitore di questa opinione.

L'opinione dei tecno-individualisti è che ogni individuo debba poter aumentare artificialmente ogni facoltà possibile (intellettiva e non), per poter affrontare sia le Singolarità sia le élite del Potere. Secondo loro gli investimenti e le ricerche e sviluppo in tecnologia dovrebbero potenziare gli individui, non le Autorità, e la casta dirigente non è consapevole delle prospettive. Fondamentale, per loro, è la forza della completa libertà di comunicazione tra gli individui (inter-individualismo, transumanesimo, Teoria dello Sciame - swarming intelligence).

Organizzazioni[modifica | modifica wikitesto]

Il Singularity Institute for Artificial Intelligence (SIAI), un istituto di ricerca ed educazione nonprofit, fu creato per lavorare sul potenziamento cognitivo sicuro (i.e. una singolarità benefica). Essi enfatizzano l'Intelligenza Artificiale Amichevole, in quanto essi credono che una intelligenza artificiale generalista è più verosimile possa incrementare la capacità cognitiva sostanzialmente prima che l'intelligenza umana possa essere incrementata significativamente dalle neurotecnologie o dalla terapia genetica somatica.

L'Institute for the Study of Accelerating Change (ISAC), anche esso una entità dedita all'educazione senza fini di lucro, fu fondato per attrarre un'ampia gamma di scienziati, umanisti e uomini d'affari interessati negli studi sull'accelerazione del cambiamento e sulla singolarità. Tengono una conferenza annuale alla Stanford University dove si tenta di comprendere in modo multidisciplinare l'accelerazione del cambiamento tecnologico.

Principali rappresentanti[modifica | modifica wikitesto]

La singolarità nella fantasia e nella cultura moderne[modifica | modifica wikitesto]

Si può trovare traccia dell'idea di un momento in cui una nuova specie di macchine sostituirà l'uomo già negli scritti di Samuel Butler

« Cosa succederebbe se la tecnologia continuasse ad evolversi così tanto più rapidamente dei regni animale e vegetale? Ci sostituirebbe nella supremazia del pianeta? Così come il regno vegetale si è lentamente sviluppato dal minerale, e a sua volta il regno animale è succeduto a quello vegetale, allo stesso modo in questi ultimi tempi un regno completamente nuovo è sorto, del quale abbiamo visto, fino ad ora, solo ciò che un giorno sarà considerato il prototipo antidiluviano di una nuova razza... Stiamo affidando alle macchine, giorno dopo giorno, sempre più potere, e fornendo loro, attraverso i più disparati ed ingegnosi meccanismi, quelle capacità di auto-regolazione e di autonomia d'azione che costituirà per loro ciò che l'intelletto è stato per il genere umano. »
(Samuel Butler, 1855)

come anche il concetto di uomini asserviti alle macchine

« Le macchine servono l'uomo soltanto a patto di essere servite, e pongono loro stesse le condizioni di questo mutuo accordo [...].

Quanti uomini vivono oggi in stato di schiavitù rispetto alle macchine? Quanti trascorrono l'intera vita, dalla culla alla morte, a curare notte e giorno le macchine? Pensate al numero sempre crescente di uomini che esse hanno reso schiavi, o che si dedicano anima e corpo al progresso del regno meccanico: non è evidente che le macchine stanno prendendo il sopravvento su di noi? [...] Non ci sono forse più uomini impegnati a curare le macchine che a curare i propri simili? »

(Samuel Butler, 1871, Erewhon)

Si possono trovare concetti simili a quelli relativi allo sviluppo post-singolarità nella descrizione del Punto Omega come formulato da Pierre Teilhard de Chardin.

In aggiunta alle storie originali di Vernor Vinge che è stato il pioniere delle prime idee sulla Singolarità, parecchi altri autori di fantascienza hanno scritto storie che hanno la Singolarità come tema centrale. Autori degni di nota sono Charles Stross, Greg Egan e Rudy Rucker.

Il gioco per computer Sid Meier's Alpha Centauri presenta anche esso qualche cosa simile ad una Singolarità, chiamata "Ascent to Transcendence", come tema principale al suo interno.

Il concetto di Singolarità viene anche usato da Isaac Asimov nel suo racconto L'ultima domanda.

Note[modifica | modifica wikitesto]

  1. ^ Raymond Kurzweil, The singularity is near, Viking press, 2005.
  2. ^ 'Will Decreasing Scarcity Allow us to Approach an Optimal (Meta-)Society?'
  3. ^ La Legge nella Società della Semi-Immortalità
  4. ^ Transvision 2010
  5. ^ R. Hanson, 'If uploads come first'
  6. ^ Dossier Lombardia, Il Giornale, luglio 2010
  7. ^ Monsieur, luglio 2010

Bibliografia[modifica | modifica wikitesto]

Voci correlate[modifica | modifica wikitesto]

Collegamenti esterni[modifica | modifica wikitesto]

In italiano[modifica | modifica wikitesto]

In inglese[modifica | modifica wikitesto]