Intelligenza artificiale simbolica

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca

L'intelligenza artificiale simbolica indica i metodi nella ricerca sull'intelligenza artificiale che si basano su rappresentazioni di problemi "simboliche" di (leggibili dall'uomo), logica e ricerca. L'IA simbolica è stata il paradigma dominante della ricerca sull'IA dalla metà degli anni '50 fino alla fine degli anni '80.[1][2]

Good Old-Fashioned Artificial Intelligence[modifica | modifica wikitesto]

John Haugeland ha coniato il termine GOFAI (Good Old-Fashioned Artificial Intelligence) per l'IA simbolica nel suo libro del 1985 Intelligenza artificiale (Artificial Intelligence: The Very Idea), che ha esplorato le implicazioni filosofiche della ricerca sull'intelligenza artificiale. Nella robotica il termine analogo è GOFR (Good Old-Fashioned Robotics).

L'approccio si basa sul presupposto che molti aspetti dell'intelligenza possano essere raggiunti mediante la manipolazione dei simboli, un assunto definito come "ipotesi dei sistemi di simboli fisici" da Allen Newell e Herbert A. Simon a metà degli anni '60.

Una forma popolare di AI simbolica sono i sistemi esperti, che utilizzano una rete di regole di produzione. Le regole di produzione collegano i simboli in una relazione simile a un'istruzione If-Then (se-allora). Il sistema esperto elabora le regole per fare deduzioni e per determinare di quali informazioni aggiuntive ha bisogno, cioè quali domande porre, utilizzando simboli leggibili dall'uomo.

Critiche al modello[modifica | modifica wikitesto]

Gli oppositori dell'approccio simbolico includono robotisti come Rodney Brooks, che mira a produrre robot autonomi senza rappresentazione simbolica (o con solo una rappresentazione minima) e ricercatori di intelligenza computazionale, che applicano tecniche come le reti neurali e l'ottimizzazione per risolvere problemi di apprendimento e controllo automatico.

L'intelligenza artificiale simbolica aveva lo scopo di produrre un'intelligenza generale, simile a quella umana in una macchina, mentre la maggior parte della ricerca moderna è diretta a problemi secondari specifici. La ricerca sull'intelligenza generale è ora studiata nel sottocampo dell'intelligenza artificiale generale.

Le macchine sono state inizialmente progettate per formulare output in base agli input rappresentati da simboli. I simboli vengono utilizzati quando l'input è definito e rientra nella certezza. Ma quando è coinvolta l'incertezza, ad esempio nella formulazione delle previsioni, la rappresentazione viene eseguita utilizzando reti neurali artificiali.[3] Recentemente, sono stati compiuti sforzi strutturati per integrare gli approcci AI simbolici e connessionisti sotto l'ombrello del calcolo neurale-simbolico. Come sostenuto da Valiant e molti altri[4] la costruzione efficace di ricchi modelli cognitivi computazionali richiede la combinazione di un ragionamento simbolico sano e modelli di apprendimento (macchina) efficienti.

Note[modifica | modifica wikitesto]

  1. ^ 1985, ISBN 0-262-08153-9.
  2. ^ Bart Kosko, Fuzzy Thinking, Hyperion, 1993, ISBN 978-0786880218.
  3. ^ Vasant Honavar, DOI:10.1007/978-0-585-29599-2_11.
  4. ^ Artur S. d'Avila Garcez, Tarek R. Besold, Luc De Raedt, Peter Földiák, Pascal Hitzler, Thomas Icard, Kai-Uwe Kühnberger, Luís C. Lamb, Risto Miikkulainen, Daniel L. Silver: Neural-Symbolic Learning and Reasoning: Contributions and Challenges. AAAI Spring Symposia 2015, Stanford, AAAI Press.
  Portale Scienza e tecnica: accedi alle voci di Wikipedia che trattano di scienza e tecnica