Image Image Image Image Image Image Image Image Image Image

domenica 24, Novembre 2024

Torna in su

Cima

Incidente mortale auto a guida autonoma: Patella “Senza coscienza e formazione la formula matematica non garantisce la responsabilità”

Incidente mortale auto a guida autonoma: Patella “Senza coscienza e formazione la formula matematica non garantisce la responsabilità”

| il 20, Mar 2018

Una donna è stata investita in Arizona da una macchina senza pilota mentre stava attraversando la strada. A bordo un tester che non è riuscito a riprendere in tempo i comandi dell’auto.

“Abbiamo davvero bisogno di auto senza pilota?” E’ la domanda che si pone il Segretario Nazionale Autoscuole Emilio Patella, alla luce dell’episodio di ieri in Arizona, dove una donna è stata travolta da un’auto a guida autonoma. “L’incidente di ieri ha realizzato l’incubo di tutte le case automobilistiche che proprio in questo momento stanno testando le tecnologie della guida autonoma: la macchina che uccide l’essere umano, senza che nessuno – anche se stavolta c’era un uomo a bordo che non è riuscito a riprendere in tempo i comandi – possa impedire la tragedia. Si tratta di un episodio che pone un “dilemma etico sociale” di cui i futuri programmi di guida autonoma dovrebbero tenere conto. Sicuramente andranno in futuro risolti problemi notevoli, come le regole di guida e di comportamento in caso di livello più spinto della sperimentazione, laddove non ci sarà un conducente a prendere il controllo del veicolo in caso di emergenza; andranno anche garantiti i diritti e la privacy dei passeggeri, bisognerà curare con particolare attenzione la sicurezza informatica. Bisognerà poi sciogliere i nodi legali riguardanti responsabilità e condizioni di assicurazione.

Personalmente penso che ben venga la tecnologia, ma i veicoli a guida autonoma devono garantire, prima che un generale diritto alla mobilità e all’autonomia all’interno dell’abitacolo, la sicurezza, i troppi morti per incidenti stradali dovuti soprattutto a distrazione da smartphone e condizioni psicofisiche non adeguate lo dimostrano ogni giorno sulle nostre strade.

In tutte le sperimentazioni di cui sento parlare, infatti, – prosegue Patella – difficilmente si discute di un problema che, forse come accaduto nell’incidente in Arizona – potrebbe diventare di grande rilevanza e di difficilissima soluzione e regolamentazione: come si comporta un’auto che si guida da sola quando, in una situazione di pericolo, deve scegliere se evitare un pedone o mettere a rischio la vita di chi è nell’abitacolo? Cosa farà quando dovrà prendere decisioni “etiche” e in base ad un algoritmo? Siamo certi, insomma, che ci piacerà un’auto che sceglierà sempre al nostro posto? I problemi etici e morali sono molti. E ancora senza risposte chiare. Le auto a guida autonoma, insomma, non possono superare le debolezze delle decisioni morali di un autista umano, per farlo avranno bisogno di programmatori che dicano loro come comportarsi, e anche in questo caso non è chiaro chi, come e in base a quale principi tecnologici, etici o legali potrà e dovrà farlo.

 

Loading ...