Utente:Caterinadonelli1/Sandbox

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca

Intelligenza artificiale forte[modifica | modifica wikitesto]

John Searle confuta la teoria che riguarda l’intelligenza artificiale forte, alla quale si contrappone l’intelligenza artificiale debole. Quest’ultima si rivolge all’uso di programmi per studiare o risolvere specifici problemi o ragionamenti che non possono essere compresi pienamente (o in alcuni casi, sono completamente al di fuori) nei limiti delle capacità cognitive umane. A questa teoria sono di contrasto altri due sistemi: il funzionalismo ed il computazionalismo. Il primo sostiene che uno stato mentale è qualsiasi condizione causale interposta tra input ed output.[1]

“Secondo la teoria funzionalista, due sistemi qualsiasi con processi causali isoformi avrebbero gli stessi stati mentali; quindi anche un computer potrebbe avere gli stessi stati mentali di una persona.”

Il computazionalismo, invece, si riferisce all’abilità del computer nell’apprendere uno specifico compito grazie ad un insieme di dati o da una semplice osservazione sperimentale. [2]

Argomentazione completa[modifica | modifica wikitesto]

La più recente presentazione dell’argomento della Stanza Cinese (1990) presenta una derivazione formale dai seguenti tre assiomi:[3]

Un programma usa la sintassi per manipolare simboli e non presta attenzione alla loro semantica; conosce dove porre i simboli e come utilizzarli, ma non comprende per cosa stiano o cosa intendano. Per il programma i simboli sono solo oggetti come altri.

  • (A2) “Le menti hanno contenuti mentali (semantici)”.

A differenza dei simboli usati da un programma, i nostri pensieri hanno significato: rappresentano cose e noi conosciamo cosa essi rappresentano.

  • (A3) “La sintassi di per sé non è né condizione essenziale, né sufficiente per la determinazione della semantica”.

Quest’ultimo assioma è ciò che Searle, con l’esperimento delle Stanza cinese, intende provare: la stanza cinese ha sintassi (vi è un uomo all’interno che manipola simboli), ma non ha semantica (non c’è niente e nessuno nella stanza che comprende cosa i simboli cinesi vogliano dire). Da ciò si deduce che avere sintassi non è abbastanza per generare la semantica.

Searle afferma che da questi tre assiomi si possa derivare la seguente conclusione:

  • (C1) “I programmi non sono condizione essenziale nè sufficiente perchè sia data una mente”.

I programmi hanno solo sintassi ed essa non è sufficiente per la semantica. Ogni mente, invece, ha semantica, per cui i programmi non sono assimilabili alle menti.

Con questo argomento Searle intende mostrare che l’intelligenza artificiale, costruendo programmi che manipolano simboli, non può mai produrre una macchina che abbia una mente.

Da questo punto della derivazione in poi Searle, proponendo un quarto assioma, intende rispondere ad una questione differente: il cervello umano segue un programma? In altre parole, la teoria computazionale della mente è corretta?[2][3]

  • (A4) “I cervelli causano le menti.”

Secondo Searle possiamo derivare immediatamente che:

  • (C2) Qualsiasi altro sistema capace di produrre menti dovrebbe avere poteri causali equivalenti, per lo meno, a quelli del cervello.

Da ciò segue che qualsiasi cervello artificiale non deve seguire meramente un programma, ma dovrebbe essere in grado di riprodurre i poteri causali dei cervelli.

E da questo deriva le ulteriori conclusioni:

  • (C3) Ogni artefatto che producesse fenomeni mentali, ogni mente artificiale, dovrebbe essere in grado di duplicare lo specifico potere causale dei cervelli e non potrebbe fare ciò solo eseguendo un programma formale.
  • (C4) II modo in cui i cervelli umani attualmente producono fenomeni mentali non può essere dato soltanto dall’esecuzione di un programma per computer.[3]

Critica dei coniugi Churchland[modifica | modifica wikitesto]

Tra le risposte all’argomento di Searle troviamo anche quella mossa da Paul e Patricia Churchland, che, però, a differenza delle altre, non sono presenti nell’articolo Menti cervelli e programmi.

Per i coniugi Churchland le risposte date dal parlante inglese che manipola simboli cinesi sono sensate, ma non tanto perchè la stanza capisca il cinese, infatti convengono con Searle sul fatto che essa non lo comprenda, quanto invece perché contengono un rifiuto del terzo degli assiomi alla base dell’argomento di Searle presentato nel 1990: “la sintassi non è condizione essenziale, né sufficiente per la determinazione della semantica”.[4]

Secondo i Churchland Searle non può rafforzare tale assioma con l’argomento della Stanza Cinese dal momento che di esso non è provata la verità; il terzo assioma, inoltre, dà per scontato ciò che si vuole dimostrare e questo si palesa quando lo si confronta con la conclusione C1: “I programmi non sono condizione essenziale né sufficiente perché sia data una mente”[4]. Tale conclusione è già espressa in gran parte da A3 per cui Searle con l’esperimento concettuale cerca di dare valore all’assioma A3. Per i Churchland Searle con l’esperimento della Stanza Cinese non riesce a fornire all’assioma 3 una base solida e pertanto costoro forniscono un argomento simile che possa fungere da controesempio. L’argomento, noto con il nome di La stanza luminosa si articola sui tre seguenti assiomi e sulla derivante conclusione:

A1: “L'elettricità e il magnetismo sono forze”.

A2: “La proprietà essenziale della luce è la luminosità”.

A3. “Le forze, da sole, non sono essenziali, né sufficienti per dare la luminosità”.

C1: “L'elettricità e il magnetismo non sono essenziali né sufficienti per dare la luce”.[4]

Se supponessimo che tale argomento fosse stato elaborato dopo l’ipotesi di Maxwell circa la natura elettromagnetica della luce, prima però che ne fosse riconosciuta la validità, esso sarebbe potuto essere un’obiezione a tale ipotesi, soprattutto se A3 fosse stato rafforzato da un esperimento concettuale. I Churchland, a tal proposito, chiedono di immaginare che all’interno di una stanza buia vi sia un uomo che tiene in mano un oggetto elettricamente carico, ad esempio, un magnete. Stando alla teoria di Maxwell, l’uomo facendo compiere al magnete movimenti verticali (su e giù) creerebbe un cerchio di onde elettromagnetiche sempre più ampio che farebbe diventare luminoso il magnete. Tuttavia, provando a fare tale esperimento si nota come il movimento di un qualsiasi oggetto carico non produca luminosità.

Maxwell per riuscire a controbattere a tale evidenza può soltanto insistere sui tre assiomi, sostenendo, in primis, che A3 sia falso: è plausibilmente possibile, ma dà per scontato ciò che di fatto non è verificabile. Secondariamente l’esperimento non dice nulla di importante sulla natura della luce e, infine, sostiene che soltanto un programma di ricerca sistematico, che permetta di dimostrare il parallelismo tra proprietà della luce e onde elettromagnetiche, possa risolvere il problema della luce.

Traslando tale risultato all’esperimento di Searle, risulta evidente che anche se apparentemente alla Stanza Cinese non si possa attribuire semantica, non vi è, però, nessuna giustificazione alla pretesa, fondata su quest'apparenza, che la manipolazione di simboli cinesi, secondo determinate regole, non potrà mai dar luogo a fenomeni semantici.[4]

Repliche all' argomentazione di Searle[modifica | modifica wikitesto]


La risposta del sistema[modifica | modifica wikitesto]

La prima importante obiezione rivolta all’esperimento noto come “Stanza cinese” è conosciuta come replica (o risposta) del sistema. Essa sostiene che:

“Mentre è vero che l’individuo chiuso nella stanza non capisce la storia, sta di fatto che egli è semplicemente parte di un intero sistema, e il sistema effettivamente comprende la storia […] la comprensione non viene ascritta all’individuo isolato, bensì al sistema complessivo di cui egli è parte”[1]

La persona all’interno della stanza è di madrelingua inglese e non conosce minimamente il cinese. A questa, però, vengono consegnati alcuni strumenti (un registro di regole relative ai simboli cinesi, carta e penna) grazie ai quali si può parlare di un sistema. Quest’ultimo viene in qualche modo incorporato da parte dell’individuo e come dice Searle:

“non c’è nulla del sistema che non sia in lui. Se lui non capisce, non c’è alcun modo per cui il sistema possa capire, poiché esso è proprio una sua parte”[3]

In breve, la replica dei sistemi consiste nel fatto che, sebbene l’individuo nella stanza non comprenda il cinese, può risultare possibile la comprensione di questa lingua grazie al sistema complessivo: grazie cioè alla persona, agli strumenti di cui fa uso e alla stanza, considerati come insieme.

Non essendoci un individuo che sappia parlare la lingua cinese all’interno della stanza, la stanza nel suo insieme non dovrebbe comprendere la lingua. La risposta del sistema evade però la questione, ribadendo più e più volte che il sistema deve capire il cinese

Searle risponde a questa obiezione proponendo una particolare situazione: chiede cioè cosa succederebbe se la persona che si trova all’interno della stanza memorizzasse le regole e i vari meccanismi, tenendo conto di tutte le informazioni presenti nella sua mente. Ciò la renderebbe capace di interagire come se capisse effettivamente il cinese; ciononostante continuerebbe a seguire un insieme di regole, senza comprendere il significato dei simboli che sta utilizzando [5]

La risposta del robot[modifica | modifica wikitesto]

La seconda obiezione all’argomento della Stanza Cinese è nota come “Replica del Robot”. Questa impostazione ci chiede di pensare ad un programma del tutto nuovo. Ci viene infatti proposto di supporre di mettere un computer dentro un robot, le cui caratteristiche sono molteplici. Esso infatti non solo riceve simboli formali come input ed immette simboli formali come output, ma rende possibile il funzionamento del robot in maniera tale da rendere le sue azioni simili a quelle di un comportamento umano. L’idea è che il robot venga controllato da un cervello computerizzato che consente al robot stesso di poter vedere tramite una telecamera inglobata e di riuscire a muoversi grazie alla presenza di braccia e gambe che gli consentirebbero di agire. In questo modo, si avrebbe un robot in grado di comprendere effettivamente e soprattutto avrebbe altri stati mentali.[1] Implicitamente la risposta del robot rivendicherebbe il fatto che l’attività nota come capacità cognitiva non comprenda una mera manipolazione di simboli formali, ma che vi sia un complesso di rapporti causali (oltre che intenzionali) con il mondo esterno. Quest’impostazione andrebbe in qualche modo a riprendere l’approccio dei processi cognitivi incorporati, il quale sottolinea il fatto che i cosiddetti “processi cognitivi” trovano una loro realizzazione all’interno di un corpo, il quale è inserito in un ambiente.

Searle replica che tale simulazione non riprodurrebbe le caratteristiche più importanti del cervello – i suoi stati causali ed intenzionali. Tutto quel che farebbe il robot, starebbe nel riuscire a seguire istruzioni formali per manipolare simboli formali. Non capirebbe nulla tranne le regole per la manipolazione di questi simboli. In breve, non saprebbe cosa succede attorno a sé, né il motivo per il quale si comporta in un determinato modo. Stando alla concezione di Searle perderebbe poco a poco la facoltà di una vera e propria comprensione.[3]

La replica del simulatore del cervello[modifica | modifica wikitesto]

La replica del simulatore del cervello chiede di immaginare che il programma costituito dal computer (o dalla persona nella stanza) simuli la sequenza di accensioni neuronali e di sinapsi nel cervello di un parlante cinese quando capisce storie in cinese e risponde ad esse. Stando a tale dato la macchina, simulando la struttura formale del cervello cinese nel capire tali storie e nel dare loro una risposta, le comprende. Se negassimo ciò dovremmo altresì negare che i parlanti cinesi le abbiano capite, dal momento che a livello di sinapsi non ci sono differenze tra il programma del computer e il programma del cervello cinese.[1]                                

Searle ribatte a tale obiezione proponendo un esempio: supponiamo che, invece dell’uomo che manipola simboli cinesi pur non conoscendo il cinese, siamo in presenza di un uomo che opera un elaborato complesso di tubature per l’acqua congiunto da valvole. Quando l’uomo riceve certi simboli cinesi come input, consultando il programma in inglese, agisce aprendo o chiudendo le valvole indicate. Ogni connessione dei tubi per l’acqua corrisponde a una sinapsi nel cervello cinese, e l’intero sistema è collegato così che dopo aver attivato tutti i giusti rubinetti, le risposte in cinese innescano gli output. Searle ritiene che l’uomo abbia agito come mero esecutore di indicazioni rappresentate dai simboli e che, tuttavia, alla fine del suo operare egli non comprenda né il cinese né il funzionamento del complesso di condutture per l’acqua. Il problema con il simulatore del cervello è che esso simula soltanto la struttura formale della sequenza di accensioni neurali e non ciò che è importante, ovvero la capacità del cervello di produrre stati intenzionali; Searle adopera tale esempio per mettere in luce l’insufficienza delle proprietà formali rispetto a quelle causali.[3]

La replica della combinazione[modifica | modifica wikitesto]

La replica della combinazione è costituita dall’insieme delle tre precedenti repliche (sistemi-robot-simulatore del cervello), così da essere più efficace. In questa replica viene portato come esempio un robot, con un computer all’interno del “cranio”, che simula tutte le sinapsi di un cervello umano e il cui comportamento risulta essere simile a quello di un uomo; viene, inoltre, chiarito che bisogna pensare a tale robot come a un sistema unificato e non a un semplice calcolatore con input e output. Da tale replica consegue che sia necessario attribuire intenzionalità al sistema.[1]

Secondo Searle inizialmente siamo portati a conferire intenzionalità al robot e ciò principalmente perché esso mette in atto un comportamento vicino al nostro, ma dimostrando come, in realtà, per funzionare il computer esegua un programma formale si riesce a confutare l’ipotesi di attribuzione ad esso di stati mentali. A dimostrazione di tale asserzione Searle propone di supporre che all’interno del robot vi sia un uomo che manipoli, conformemente a determinate regole, una serie di simboli formali non interpretati ricevuti dai sensori del robot e che mandi come output ai meccanismi motori i corrispondenti simboli formali non interpretati. Se supponiamo che l’uomo lì dentro sappia solo quali operazioni eseguire e quali simboli senza significato usare, allora l’ipotesi  che il robot abbia intenzionalità non sarebbe giustificata. Veniamo, dunque, a conoscenza che il comportamento di tale robot è il risultato di un programma formale e quindi dobbiamo abbandonare l’assunto dell’intenzionalità.[3]

La replica delle altre menti[modifica | modifica wikitesto]

La replica delle altre menti rimanda al fatto che per sapere se le persone hanno compreso il cinese o qualunque altra cosa si deve far riferimento al loro comportamento: se il computer supera i test comportamentali, come li supererebbe una persona, allora se si attribuisce cognizione a tale persona, di principio bisogna attribuirla anche al computer.

Searle ribatte dicendo che tale replica non centra il punto della questione: “non è come io so che le altre persone hanno stati cognitivi, ma piuttosto che cosa è che io attribuisco loro quando li accredito di stati cognitivi”. Non si possono valutare soltanto processi computazionali con input e output corretti perché questi possono esistere anche senza che vi sia lo stato cognitivo.[1]

La replica delle molte sedi[modifica | modifica wikitesto]

Secondo la replica delle molte sedi prima o poi sarà possibile costruire dispositivi che abbiano i procedimenti causali che, a vedere di Searle, sono necessari per l’intenzionalità e ciò si chiamerà Intelligenza Artificiale. [1]

Searle sostiene che questa replica travisi il progetto dell’Intelligenza Artificiale forte ridefinendola come qualsiasi cosa che artificialmente produce e spieghi la cognizione, abbandonando, quindi, l’affermazione originale fatta per conto dell’intelligenza artificiale secondo cui “i procedimenti mentali sono procedimenti computazionali che operano su elementi formalmente definiti”. Searle, quindi, si rifiuta di rispondere a tale obiezione dal momento che non rispecchia una ben definita premessa su cui si è basata la sua intera argomentazione.[3]

Note[modifica | modifica wikitesto]

  1. ^ a b c d e f g (EN) John R. Searle, Menti cervelli e programmi, traduzione di Graziella Tonfoni, Milano, 1984.
  2. ^ a b The chinese room argument, su en.wikipedia.org.
  3. ^ a b c d e f g h Larry Hauser, Chinese Room Argument.
  4. ^ a b c d Può una macchina pensare? (PDF), su download.kataweb.it.
  5. ^ Braccini Michele, Intelligenza artificiale: test di Turing e alcune questioni filosofiche.

Bibliografia[modifica | modifica wikitesto]

  • John R. Searle e Tonfoni Graziella, Menti, cervelli e programmi: un dibattito sull'intelligenza artificiale, Milano, 1984, ISBN 88-7005-614-7.
  • Larry Hauser, Chinese room argument, 12 aprile 2001.
  • David Anderson, Jack Copeland, ARTIFICIAL LIFE AND THE CHINESE ROOM ARGUMENT, febbraio 2002.
  • Mariano de Dompablo Cordio, Searle's Chinese Room Argument and its Replies: A Constructive Re-Warming and the Future of Artificial Intelligence, in Indiana Undergraduate Journal of Cognitive Science, 2008.
  • Michele Braccini, Intelligenza artificiale: test di Turing e alcune questioni filosofiche.
  • Eddy Carli e Fabio Grigenti, Mente, cervello, intelligenza artificiale, Pearson, febbraio 2019, ISBN 9788891909374.
  • Può una macchina pensare? (PDF), su download.kataweb.it.
  • Stanford Encyclopedia of Philosophy, su plato.stanford.edu.

Pagine correlate[modifica | modifica wikitesto]