Problema del carrello ferroviario: differenze tra le versioni

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca
Contenuto cancellato Contenuto aggiunto
Recupero di 1 fonte/i e segnalazione di 0 link interrotto/i. #IABot (v2.0beta14)
LauBot (discussione | contributi)
m Bot: passaggio degli url da HTTP a HTTPS
Riga 15: Riga 15:


=== Scelte etiche nell'intelligenza artificiale ===
=== Scelte etiche nell'intelligenza artificiale ===
Il problema è tornato in auge negli [[anni 2010]] nelle discussioni relative alla possibile diffusione delle [[autovettura autonoma|autovetture autonome]] i cui software potrebbero trovarsi a dover compiere scelte di guida in situazioni che implicano la soluzione di dilemmi etici.<ref>{{cita news|lingua=en|url=http://www.theatlantic.com/technology/archive/2013/10/the-ethics-of-autonomous-cars/280360/|titolo=The Ethics of Autonomous Cars|sito=The Atlantic|mese=ottobre|anno=2013}}</ref><ref>{{cita news|lingua=en|autore=Tim Worstall|url=http://www.forbes.com/sites/timworstall/2014/06/18/when-should-your-driverless-car-from-google-be-allowed-to-kill-you/|titolo=When Should Your Driverless Car From Google Be Allowed To Kill You?|sito=Forbes|data=18 giugno 2014}}</ref><ref>{{cita pubblicazione|lingua=en|autore=Jean-François Bonnefon|autore2=Azim Shariff|autore3=Iyad Rahwan|url=http://arxiv.org/abs/1510.03346|titolo=Autonomous Vehicles Need Experimental Ethics: Are We Ready for Utilitarian Cars?|sito=arXiv}}</ref><ref>{{cita news|lingua=en|url=http://www.technologyreview.com/view/542626/why-self-driving-cars-must-be-programmed-to-kill/|titolo=Why Self-Driving Cars Must Be Programmed to Kill|sito=MIT Technology Review|data=22 ottobre 2015}}</ref>
Il problema è tornato in auge negli [[anni 2010]] nelle discussioni relative alla possibile diffusione delle [[autovettura autonoma|autovetture autonome]] i cui software potrebbero trovarsi a dover compiere scelte di guida in situazioni che implicano la soluzione di dilemmi etici.<ref>{{cita news|lingua=en|url=https://www.theatlantic.com/technology/archive/2013/10/the-ethics-of-autonomous-cars/280360/|titolo=The Ethics of Autonomous Cars|sito=The Atlantic|mese=ottobre|anno=2013}}</ref><ref>{{cita news|lingua=en|autore=Tim Worstall|url=https://www.forbes.com/sites/timworstall/2014/06/18/when-should-your-driverless-car-from-google-be-allowed-to-kill-you/|titolo=When Should Your Driverless Car From Google Be Allowed To Kill You?|sito=Forbes|data=18 giugno 2014}}</ref><ref>{{cita pubblicazione|lingua=en|autore=Jean-François Bonnefon|autore2=Azim Shariff|autore3=Iyad Rahwan|url=https://arxiv.org/abs/1510.03346|titolo=Autonomous Vehicles Need Experimental Ethics: Are We Ready for Utilitarian Cars?|sito=arXiv}}</ref><ref>{{cita news|lingua=en|url=https://www.technologyreview.com/view/542626/why-self-driving-cars-must-be-programmed-to-kill/|titolo=Why Self-Driving Cars Must Be Programmed to Kill|sito=MIT Technology Review|data=22 ottobre 2015}}</ref>


=== Risvolti neurologici ===
=== Risvolti neurologici ===

Versione delle 22:30, 3 mag 2019

Il problema del carrello

Il problema del carrello ferroviario (o dilemma del carrello) è un esperimento mentale di filosofia etica formulato nel 1967 da Philippa Ruth Foot alla cui base c'è la soluzione di un dilemma etico.

Enunciazione

Nella versione originale, un autista di un tram conduce un veicolo capace solo di cambiare rotaia (tramite deviatoio), senza la possibilità di frenare. Sul binario percorso si trovano cinque persone legate e incapaci di muoversi e il tram è diretto verso di loro. Tra il tram e le persone legate si diparte un secondo binario parallelo, sul quale è presente una persona legata e impossibilitata a muoversi. La persona nei pressi del deviatoio si trova di fronte un'alternativa che comporta due sole opzioni: lasciare che il tram prosegua dritto la sua corsa, uccidendo le cinque persone, oppure azionare lo scambio e ucciderne una sola.

Varianti

Il problema originale e alcune varianti: i rettangoli rappresentano in veicoli in movimento, il cerchio nero rappresenta cinque persone, il pallino rosso una singola persona.

Negli anni sono state proposte alcune variante al problema del carrello ferroviario:

  • in quella denominata "l'uomo grasso" (the fat man), proposta da Judith Jarvis Thomson, analogamente alla versione originale un carrello sta viaggiando in direzione di cinque persone impossibilitate a muoversi e l'unico modo per arrestare la sua corsa è spingere sulle rotaie un uomo molto grasso: l'uomo sarebbe condannato a morire investito dal carrello, ma si salverebbe la vita delle altre cinque.
  • la versione "il criminale grasso" (the fat villain) è molto simile alla precedente, con la differenza che l'uomo grasso che è possibile spingere sul binario è un noto criminale.
  • nella versione "l'anello" (the loop) è possibile deviare il carrello su un binario secondario. Il nuovo binario si ricollega in seguito a quello dove sono legate le cinque persone, ma su di esso si trova un uomo grasso che, venendo investito, interromperebbe la corsa del carrello.
  • la versione "l'uomo nel campo" (the man in the yard) offre la possibilità di deviare il carrello su un binario secondario per non investire le cinque persone, ma così facendo il carrello si scontrerà con un altro carro che, deragliando, uscirà dai binari uccidendo un uomo che si trova in un campo poco distante.

Scelte etiche nell'intelligenza artificiale

Il problema è tornato in auge negli anni 2010 nelle discussioni relative alla possibile diffusione delle autovetture autonome i cui software potrebbero trovarsi a dover compiere scelte di guida in situazioni che implicano la soluzione di dilemmi etici.[1][2][3][4]

Risvolti neurologici

Nel 2001 il neuroscienziato e filosofo Joshua Greene di Harvard,avendo constatato che la maggior parte delle persone considera una scelta morale deviare il carrello verso una sola persona mentre spingere una persona sulle rotaie un omicidio,tramite scansione cerebrale ha constatato che nelle due situazioni si attivano aree cerebrali distinte,e ha chiamato le due situazioni decisione morale impersonale e decisione morale personale[5].

Note

  1. ^ (EN) The Ethics of Autonomous Cars, su The Atlantic, ottobre 2013.
  2. ^ (EN) Tim Worstall, When Should Your Driverless Car From Google Be Allowed To Kill You?, su Forbes, 18 giugno 2014.
  3. ^ (EN) Jean-François Bonnefon, Azim Shariff e Iyad Rahwan, Autonomous Vehicles Need Experimental Ethics: Are We Ready for Utilitarian Cars?, su arXiv.
  4. ^ (EN) Why Self-Driving Cars Must Be Programmed to Kill, su MIT Technology Review, 22 ottobre 2015.
  5. ^ Joshua Greene et al.,An fMRI investigation of emotional engagement in moral judgment, 2001, in Science, 293, pp 2105-218

Bibliografia

  • (EN) Philippa R., The Problem of Abortion and the Doctrine of the Double Effect in Virtues and Vices, in Oxford Review, n. 5, 1967.

Voci correlate

Altri progetti

Collegamenti esterni

  Portale Filosofia: accedi alle voci di Wikipedia che trattano di filosofia