Tech reviews and news

Death by Driverless Car: Wie is de schuldige wanneer robotauto's doden?

click fraud protection

Het is het jaar 2025. Je zelfrijdende auto is net met een snelheid van 90 km / u tegen een boom gereden omdat de ingebouwde computer het leven van een voetganger belangrijker vond dan dat van jou. Je verwondingen zijn het resultaat van een paar regels code die in de onstuimige dagen van 2018 werden gehackt door een 26-jarige softwareprogrammeur in de San Francisco Bay Area. Terwijl je wacht op een paramedische drone die langs de weg bloedt, vraag je jezelf af: waar is het allemaal misgegaan?

Het bovenstaande scenario klinkt misschien fantastisch, maar de dood door een zelfrijdende auto is niet alleen onvermijdelijk - het gebeurt al. Onlangs raakte een zelfrijdende auto van Uber een voetganger in Arizona en doodde deze, terwijl in mei 2017 semi-autonome software faalde in een op dezelfde tragische manier toen de Tesla Model S van Joshua Brown onder de aanhanger van een 18-wielige vrachtwagen op een snelweg reed terwijl hij in Autopilot was modus.

Tesla geeft toe dat zijn systeemsensoren de witte trailer niet konden onderscheiden van een heldere hemel, wat resulteerde in de vroegtijdige dood van de 40-jarige Floridiaan. Maar Tesla zegt ook dat chauffeurs hun handen aan het stuur moeten houden om te voorkomen dat dit soort ongelukken gebeuren, zelfs als Autopilot is geactiveerd. Ondanks de naam is het een semi-autonoom systeem.

Uber, aan de andere kant, mag volgens een voorlopig politierapport geen schuld hebben, dat de schuld bij het slachtoffer legt.

Het is een triest feit dat deze tragedies slechts een voorproefje zijn van wat komen gaat. Bij het schrijven van dit artikel heb ik me gerealiseerd hoe jammerlijk onvoorbereid we zijn op de toekomst zonder bestuurder, die we al in 2020 verwachten. Wat nog zorgwekkender is, is dat deze toekomst al overslaat in ons heden, dankzij semi-autonome systemen zoals Tesla's Autopilot en Uber's (nu stopgezette) zelfrijdende autotests.

De technologie van morgen is er vandaag, en met kwesties als ethiek en aansprakelijkheid die nu onmogelijk te vermijden zijn, kunnen autofabrikanten het zich niet veroorloven om er niet klaar voor te zijn.

Wat gebeurt er als een zelfrijdende auto een ongeval veroorzaakt en, erger nog, iemand doodt?

De dood door computer begrijpen

Om aansprakelijkheid aan te pakken, moeten we ons afvragen hoe en waarom een ​​zelfrijdende auto iemand kan doden. In tegenstelling tot mensen lijden auto's niet aan vermoeidheid, ervaren ze geen woede op de weg en kunnen ze geen zes liter bier achterover slaan voordat ze de snelweg raken - maar ze kan maak nog steeds fouten.

zelfrijdende auto's 11Tesla's Model S is voorzien van semi-autonome Autopilot-technologie

De meest waarschijnlijke oorzaak van 'overlijden-door-een-bestuurderloze-auto' zou zijn als de sensoren van een auto de gegevens onjuist interpreteren, waardoor de computer een slechte rijbeslissing neemt. Hoewel elk incident, fataal of anderszins, zal resulteren in reparaties en verbeteringen, zou het opsporen van de verantwoordelijkheid een lange en moeizame juridische reis zijn. Ik kom daar later op terug.

De tweede mogelijke doodsoorzaak-door-een-bestuurderloze-auto is veel moeilijker op te lossen, omdat het allemaal om ethiek gaat.

Stel je dit scenario voor: je rijdt samen met je partner in een auto zonder bestuurder, langs een eenbaans, met bomen omzoomde B-weg. Er zijn tientallen en tientallen van dergelijke B-wegen in het VK. De auto rijdt met een snelheid van 80 km / u, wat lager is dan de nationale maximumsnelheid van 100 km / u op deze weg.

Er komt een blinde bocht aan, dus je auto vertraagt ​​tot een verstandiger 65 km / u. Terwijl je de bocht omrijdt, zie je dat een kind de weg op is gerend vanaf een openbaar voetpad verborgen in de bomen. Zijn moeder raakte in paniek en volgde hem, en nu staan ​​ze allebei midden op de weg. Het is een winderige dag en je auto is elektrisch, dus ze hoorden je niet aankomen. De sensoren in uw auto zagen geen van beide totdat ze zich op slechts enkele meters afstand bevonden.

Er is geen kans om op tijd te remmen, dus de moeder en het kind gaan dood als uw auto niet meteen uitwijkt. Als de auto naar links zwenkt, ga je offroad en raak je een boom; als de auto naar rechts zwenkt, raak je een zelfrijdende vrachtwagen die in de tegenovergestelde richting komt. Het is leeg, dus jij en je partner zouden de enige slachtoffers zijn.

In deze situatie wordt de auto gedwongen een beslissing te nemen - raakt hij de voetgangers bijna? ze zeker te doden, of riskeert het de passagiers in de kans dat ze de ongeluk. De antwoorden zullen maanden (of zelfs jaren) eerder zijn beslist, toen de algoritmen oorspronkelijk in het computersysteem van uw auto waren geprogrammeerd - en ze zouden heel goed een einde kunnen maken aan uw leven. Hoewel de auto het niet weet, is dit in feite een ethische beslissing.

Om de overweldigende moeilijkheid van het coderen van ethiek aan te tonen, kunt u een bezoek brengen aan het Massachusetts Institute of Technology Morele machine. Het is een quiz die tot doel heeft bij te houden hoe mensen reageren op morele beslissingen van zelfrijdende auto's. Je krijgt een reeks scenario's te zien waarin een auto zonder bestuurder moet kiezen tussen twee kwaden (d.w.z. het doden van twee passagiers of vijf voetgangers) en je moet kiezen welke jij denkt dat het meest is aanvaardbaar. Zoals je snel zult beseffen, is het echt moeilijk.

zelfrijdende auto's 7Welk scenario zou je kiezen? De Moral Machine van MIT is een zelfrijdende nachtmerrie

Als dit je allemaal bang maakt, ben je niet de enige. In maart bleek uit een onderzoek van de Amerikaanse automobielorganisatie AAA dat drie van de vier Amerikaanse automobilisten 'bang' zijn om in zelfrijdende auto's te rijden, en 84% van hen zei dat dat kwam omdat ze vertrouwen hadden in hun eigen rijvaardigheid meer dan die van een computer, ondanks overweldigend bewijs dat suggereert dat zelfrijdende auto's aanzienlijk veiliger zijn - menselijke fouten zijn de grootste moordenaar op onze wegen, ten slotte.

Dus waarom zijn we zo bang? Vroeg ik prof. Luciano Floridi, hoogleraar filosofie en ethiek van informatie aan de universiteit van Oxford, die vraag.

"Ik denk dat het een voorouderlijke angst is voor het onbekende, angst voor machines. Het waren de Golem en Frankenstein, en nu is het een technologie die we niet volledig onder controle hebben in het geval van zelfrijdende auto's, ”vertelt professor Floridi me. “Het lijkt misschien ook een verkeerde verkoop aan de kant van de industrie, waar totale veiligheid als een mogelijkheid wordt verkocht, waarvan we weten dat dit niet het geval is. Niets is 100% veilig, u kunt alleen maar veiliger zijn. "

Dus ook al zijn zelfrijdende auto's veiliger en verkleinen ze de kans op overlijden, toch hebben chauffeurs moeite om het idee te accepteren dat ze door een machine kunnen worden gedood in plaats van door een menselijke fout.

Het grotere goed versus uw veiligheid - wie wint?

Het Massachusetts Institute of Technology heeft onlangs 2.000 mensen ondervraagd en ontdekte dat 76% van de respondenten zou van een zelfrijdende auto verwachten dat deze de veiligheid van een groep van tien voetgangers voorrang geeft boven een enkele passagier. Heel nobel, toch? In de ethiek wordt dit 'utilitarisme' genoemd - dat is een afkorting voor wanneer er beslissingen worden genomen het algemeen belang.

Maar mensen zijn dieren, en dat betekent dat de evolutie ons bedraad heeft om onszelf en degenen die belangrijk voor ons zijn, te beschermen, vaak ten koste van het "grotere goed", wat dat ook mag zijn.

Het is veelzeggend dat toen de respondenten van MIT werd gevraagd om de moraliteit van diezelfde zelfrijdende auto te beoordelen - degene die zou crashen en de eigenaar ervan zou doden om de voetgangers te redden - alsof ze zelf een passagier in het voertuig waren, daalde de moraliteitsclassificatie van de 'ethische' auto met een derde.

De moraal van het verhaal is geen grote verrassing - we houden allemaal van het idee van utilitaire zelfrijdende auto's, totdat we in één moeten rijden. Dit zichzelf behoudende geloofssysteem zal een acuut effect hebben op de zelfrijdende auto-industrie. Wat gebeurt er bijvoorbeeld als autofabrikanten hun auto op ethische basis gaan verkopen? Kunnen sommige auto's zo worden ontworpen dat ze altijd streven naar een "beste resultaat", terwijl andere worden gebouwd om in het belang van de bestuurder of passagiers te handelen?

Maar hoewel professor Floridi gelooft dat ethiek een rol zal spelen bij het op de markt brengen van zelfrijdende voertuigen, is hij er niet van overtuigd dat ze zullen worden verkocht op basis van hun morele code:

“Dat zou voor de reclamekant zo'n slechte zet zijn. Wat we echter zullen zien, is een ethische component in reclame in het algemeen. Als u zich herinnert dat auto's als veiliger werden geadverteerd vanwege veiligheidsgordels, zeiden bedrijven dat het zoveel veiliger was als u bij een ongeval betrokken was. Zo zal het zijn. Niet dat deze ethische code beter is dan die ethische code. "

zelfrijdende auto's 5Professor Luciano Floridi denkt dat ethiek een van de grootste obstakels is voor de toekomst van zelfrijdende auto's

Zijn zelfrijdende auto's onmogelijk ingewikkeld?

Helaas voor ons allemaal, zegt Floridi, zijn zelfrijdende auto's slecht uitgerust om dergelijke complexe beslissingen aan te pakken. Hij gelooft dat ondanks alle onderzoeks- en ontwikkelingsinspanningen gericht was op het brengen van zelfrijdende auto's op onze wegen zijn computers inherent niet in staat om de complexe morele beslissingen te nemen die rijden eisen.

"De ethiek is delicaat, te subtiel, te open voor een gewone zelfrijdende auto", legt hij uit. 'De auto die ik nodig heb om van het platteland naar Londen te gaan, of van Londen terug naar Rome, zoals ik deed toen ik een jonge man was met niet veel geld - kun je je die reis voorstellen? Ongeveer 2.000 mijl van Oxford naar Rome en terug? In een context waarin van alles kan gebeuren, is het erg moeilijk om je een totaal ongecontroleerde omgeving voor te stellen waarin een auto zonder bestuurder succesvol is, zonder dat ik de kans heb om het stuur op te pakken. "

Floridi zegt dat het "onmogelijk" is om een ​​algoritme te maken dat de menselijke ethiek op de weg kan nabootsen, omdat er tijdens het rijden een oneindig aantal mogelijke scenario's kan ontstaan. Hij geeft het voorbeeld van een kat op de weg:

"Je zou kunnen zeggen 'stop elke keer' als er een kat is - tenzij wat? Tenzij er een grote vrachtwagen met 120 km / u achter je rijdt en je kinderen in de auto zitten. Op dat moment zeg je ‘ga en dood de kat’, omdat je gezin gevaar loopt. U kunt dit vermenigvuldigen met ‘alleen als’ en ‘tenzij’ tot een eindeloos aantal voorwaarden. ''

Waarom is het zo moeilijk? Welnu, het is heel gemakkelijk om een ​​gesloten wereld te automatiseren, waarin we elke toestand kunnen begrijpen. Maar autorijden is een open-wereldscenario, waarin de omstandigheden willekeurig zijn en onmogelijk te voorspellen, wat het erg moeilijk maakt om te automatiseren. Daarom gelooft Floridi dat er geen hoop is dat software voor zelfrijdende auto's ethisch voldoende competent is, althans op bestaande wegennetwerken:

"Stel je voor dat je schaakt met iemand die op een gegeven moment een pistool uit zijn zak pakt en zegt‘ je kunt die zet niet maken ’, '' grapt Floridi. "Dat is een ander soort schaken. Geen enkele computer kan er iets aan doen, ongeacht wat we erin hebben gestopt. "

Floridi zegt dat om dit aan te pakken, autobedrijven al overleggen met ethische experts om ervoor te zorgen dat hun software moreel waterdicht is. Ik vroeg om een ​​voorbeeld en hij vertelde me dat hij een bijeenkomst met Audi bijwoonde “waar ethische kwesties het hoofdonderwerp waren, juist vanwege de implicaties van zelfrijdende auto's. Zoals elke geavanceerde technologie die we ontwikkelen vereist, dwingt de sociale impact op een bepaald moment een ethische afweging af. "

Dus wie betaalt?

Oké, dus we zijn weer langs de kant van de weg en de paramedische drone is eindelijk gearriveerd. Het bloeden is gestopt, je bent weer helder en je bent klaar om de kwestie van compensatie aan te pakken. Je hebt je auto niet laten crashen; je auto is zelf gecrasht - wie betaalt?

"In het strafrecht en in het burgerlijk recht is het de vraag wie de auto bestuurt", vertelt Matthew Claxson, een advocaat voor verkeersongevallen bij Slater & Gordon. 'Zodat de telefoniste kon zeggen:' Ik las een krant en vertrouwde op de computer om de controle over te nemen van de reis, 'en er zou een argument zijn dat de fabrikant van de auto aansprakelijk zou zijn. Of ze verdere claims tegen softwarefabrikanten indienen, valt nog te bezien. "

Verwant: Apple CarPlay versus Android Auto

Als een auto-onderdeel - zoals een versnellingsbak bijvoorbeeld - vandaag in het VK het begeeft, legt Claxson uit, en de fout het gevolg was van onbetrouwbare fabricage, en dat auto gaat iemand vermoorden, zouden de landgoederen van de persoon die stierf 'gewoonlijk de automobilist aanklagen', of de automobilist in het geval van een bestuurderloze auto. De verzekeringsmaatschappij van de bestuurder schikt vervolgens de claim, maar zal vervolgens een verdere actie ondernemen tegen de autofabrikant "achter de schermen, om hun verlies te verhalen".

"Het is een van de voordelen van de Britse verzekeringspolis dat het een beroep doet op degenen die ernstig gewond zijn geraakt of gedood zijn door een financiële schikking die kan helpen bij de medische behandeling, of de begrafeniskosten kan betalen, of de nabestaanden op de een of andere manier kan helpen, "zegt Claxson.

Maar er is één probleem dat roet in het eten gooit, en dat is hacken. Eerder dit jaar werd ontdekt dat de Mitsubishi Outlander hybride zou kunnen zijn gecontroleerd door hackers dankzij een kwetsbaarheid in het ingebouwde wifi-systeem van de auto. En meer recentelijk moest Fiat Chrysler een vrijwillige terugroepactie indienen voor 1,4 miljoen voertuigen na een hack die dat kon schakel de motor op afstand uit was ontdekt.

zelfrijdende auto's 9Auto's zonder bestuurder kunnen worden gehackt en gecrasht - dus wie betaalt er dan?

Dus als een zelfrijdende auto iemand vermoordt omdat deze is gehackt, dan lijkt het niet eerlijk om de aansprakelijkheid op de bestuurder of de autofabrikant vast te leggen. Wie betaalt er dan? Claxson stelt de volgende oplossing voor:

"We hebben een proces in dit land waarbij als een auto wordt gestolen en iemand doodt of letsel toebrengt, die dief verdwijnt (d.w.z. het is een hit-and-run), hebben we een organisatie die bekend staat als het Motor Insurers Bureau, een fonds in laatste instantie dat is opgericht door de minister van Transport in dit land. Dat zou de slachtoffers van de vlucht en de vlucht nemen en hen compenseren als zij de onschuldige partij zijn. "

Hij vervolgt: `` Men zou hopen in de toekomst zo'n soortgelijk mechanisme te zien, dat als een auto wordt gehackt, niet de schuld van de fabrikant of bestuurder, je zou hopen dat er een soortgelijk fonds zou zijn om die slachtoffers te helpen. "

Zelfrijdende auto's zijn een nachtmerrie voor aansprakelijkheid

De boodschap is hier simpel: het is vrij eenvoudig om aansprakelijkheid toe te wijzen wanneer auto's volledig autonoom zijn. En zelfs bij hacking kan er nog een vergoeding worden uitgekeerd. Maar wat gebeurt er als een auto niet volledig autonoom is en de bestuurder de auto toch kan besturen?

Immers, toen Joshua Brown stierf nadat de sensoren van zijn auto eerder dit jaar kapot waren gegaan, herinnerde Tesla ons snel aan zijn advies dat Autopilot `` een hulpfunctie is waarvoor u houd je handen altijd aan het stuur. " Tesla voegde ook toe: “De automatische piloot wordt steeds beter, maar het is niet perfect en vereist nog steeds dat de bestuurder blijft alert. "

Het uitgangspunt is om uit te zoeken hoe autonoom een ​​voertuig is. Er zijn veel verschillende methoden om dit te doen, maar het meest populaire (tot nu toe in ieder geval) is het SAE-systeem, dat zes verschillende niveaus van voertuigautomatisering heeft:
Niveau 0Geen automatisering - De fulltime prestatie door de menselijke bestuurder van alle aspecten van autorijden
Niveau 1Bestuurdersondersteuning - De rijmodus-specifieke uitvoering van accelereren, vertragen of sturen met behulp van informatie over de omgeving
Level 2Gedeeltelijke automatisering - De rijmodusspecifieke uitvoering door een of meer rijhulpsystemen van zowel sturen als accelereren / vertragen
Niveau 3Voorwaardelijke automatisering - Prestaties door een geautomatiseerd rijsysteem van alle aspecten van de rijtaak, met de verwachting dat een menselijke bestuurder zal reageren op een verzoek om in te grijpen
Niveau 4Hoge automatisering - De prestaties door een geautomatiseerd rijsysteem van alle aspecten van het rijden, zelfs als een menselijke bestuurder niet reageert op een verzoek om in te grijpen
Niveau 5Volledige automatisering - De fulltime prestatie door een geautomatiseerd rijsysteem van de volledige rijtaak, onder alle weg- en omgevingsomstandigheden die kunnen worden beheerd door een menselijke bestuurder

Verwant: Wat is Tesla Autopilot?

Zelfs nieuwe auto's halen nog geen autonomie van niveau 5 en er zijn genoeg auto's op de weg die niveau 0 nog niet hebben gehaald. Dat betekent dat volgens de bestaande wetgeving, als uw auto een ongeval heeft omdat u uw handen niet aan het stuur had, zelfs niet in een semi-autonome auto, je bent vrijwel zeker aansprakelijk, althans volgens Adrian Armstrong, van het Collision Investigation-team bij forensisch bureau Keith Borer Consultants:

"Momenteel is het de schuld van de bestuurder. Alle toegevoegde veiligheidsvoorzieningen, zoals de Tesla, zijn bedoeld als aanvulling op de input van de bestuurder. Ze mogen het bewustzijn van de bestuurder niet vervangen. "

Maar zoals de Tesla-zaak heeft bewezen, wordt het naarmate auto's autonomer worden, aanzienlijk moeilijker om aansprakelijkheid toe te wijzen.

zelfrijdende auto'sNvidia's DRIVEnet-demo, waarin autosensoren objecten in realtime volgen

Het Britse ministerie van Transport suggereert momenteel dat de aansprakelijkheid voor een voertuig in autonome modus berust met de autofabrikant, maar wanneer de bestuurder de controle terug heeft, moet de bestuurder zijn aansprakelijkheid aanvaarden in plaats daarvan.

Het probleem is dat het moeilijk is voor chauffeurs om mentaal betrokken te blijven als ze niet fysiek betrokken zijn, waardoor die overdrachtsperiode moeilijk op te lossen is in termen van aansprakelijkheid. Sommige onderzoeken hebben aangetoond dat het wel 35 tot 40 seconden kan duren voordat bestuurders de auto effectief besturen wanneer ze terugschakelen vanuit de autonome modus.

Verzekeringsmaatschappijen zijn (niet verrassend) erg enthousiast om de aansprakelijkheidskwestie aan te pakken met lastige situaties zoals het overdrachtsdilemma. Een verzekeringsmaatschappij die al aanzienlijke vooruitgang boekt in de sector, is AXA, zoals Daniel O'Byrne, de Public Affairs Manager voor het VK van het bedrijf, uitlegt:

“We zijn partner in drie van de door de overheid gefinancierde proeven die erop gericht zijn zelfrijdende of geconnecteerde of autonome voertuigen tot bloei te brengen. We nemen de aangepaste Bowler Wildcat, die al op afstand kan worden bestuurd, en militair is ontwikkeld door BAE. We proberen het naar een hoger niveau te tillen met de sensoren en het besluitvormingsproces, en we kijken ernaar vanuit het perspectief van verzekeringsaansprakelijkheid. "

O'Byrne zegt dat het bedrijf vooral geïnteresseerd is in hoe aansprakelijkheid wordt toegewezen tijdens de overdrachtsperiode. Hij vertelt me ​​tenslotte dat de regering "uiteindelijk wil dat je een boek kunt lezen of e-mails kunt checken op een iPad", en voegde eraan toe: "Ik zou zeer verrast zijn als je in 2020 kan niet zomaar op een knop in je auto drukken en een boek gaan lezen. " Maar dat is een enorm probleem, want het betekent dat de 'bestuurder' geen aandacht aan de weg besteedt milieu:

'Als de auto de controle aan de mens overdraagt, hoe lang is het dan redelijk om die bestuurder weer aansprakelijk te stellen? Kan een chauffeur in vijf seconden van het lezen van een boek naar het rijden met X mijl per uur gaan? Dat is waarschijnlijk onredelijk. We kijken naar dat gedragsaspect, de universiteiten kijken naar de psychologie en hoe mensen reageren op die overdracht. ”

Bekijk: Autonome aansprakelijkheid gedebatteerd

In tegenstelling tot in de VS is er in het VK geen wet die zegt dat je je handen aan het stuur moet houden. Wat we in Groot-Brittannië hebben, is de Road Traffic Act, die chauffeurs alleen verplicht om "de nodige zorg en aandacht" te besteden. Dat klinkt als frustrerend breed formulering, maar O’Byrne gelooft dat deze ambiguïteit het VK een voordeel zou kunnen geven ten opzichte van andere landen als het gaat om het opstellen van een wetgevend kader.

"We waren ondertekenaars van, maar niet bekrachtigers van, het Verdrag van Wenen", zegt O'Byrne, verwijzend naar de Verdrag van Wenen inzake het wegverkeer, waarin staat dat chauffeurs altijd hun handen aan het stuur moeten houden. “En, in een notendop, terwijl de Wegenverkeerswet zegt dat je de nodige zorg en aandacht moet besteden, zijn wij niet zo normatief als andere landen zeggen dat je te allen tijde je handen aan het stuur moet houden, wat ons mogelijk een gemakkelijkere wetswijziging mogelijk maakt dan bijvoorbeeld Duitsland."

Het Venturer Consortium, de zelfrijdende auto-proefgroep waar AXA deel van uitmaakt, test momenteel de prestaties van de bestuurder tijdens het overdrachtsproces in verschillende scenario's. De resultaten van deze proef zullen buitengewoon nuttig zijn om uit te zoeken wie aansprakelijk is, en zullen hopelijk onthullen hoe lang een bestuurder redelijkerwijs nodig heeft om de volledige controle over een voertuig terug te krijgen.

Zodra de verzekeringsmaatschappijen en wetgevers hierover tot een gezamenlijke conclusie komen, zou het gemakkelijker moeten zijn om een ​​standaardperiode vast te stellen voor bestuurders om de controle over een zelfrijdende auto terug te krijgen. Dat zou het aanzienlijk gemakkelijker moeten maken om te bepalen wie aansprakelijk is, omdat de omschakeling van autonome systemen naar chauffeursbesturing eenvoudig op softwareniveau kan worden gevolgd. En dat betekent dat het toewijzen van schuld bijna net zo eenvoudig is als nu.

zelfrijdende auto's 3Bowler Wildcats worden momenteel aangepast voor zelfrijdende autotests in het VK

Zijn zelfrijdende auto's al deze moeite waard?

Laten we eerlijk zijn: als industriereuzen zoals Tesla, Google en Ford u vertellen dat we veiliger zullen zijn met zelfrijdende auto's, hebben ze helemaal gelijk. Omdat auto's minder afhankelijk worden van menselijke input, zullen er minder mensen op de wegen omkomen.

Volgens gegevens van de OESO komt één keer per 53,4 miljoen kilometer gereden door auto's een dodelijk ongeval voor, zoals gemiddeld in 20 bemonsterde EU-landen. In de Verenigde Staten verminderen beter dan gemiddelde verkeersveiligheidsnormen dat aantal tot één dodelijk ongeval per 94 miljoen mijl. Maar er zijn al meer dan 210 miljoen mijl gereden met Tesla's Autopilot geactiveerd, met slechts één dodelijk ongeval in de boeken.

Een deel van de aantrekkingskracht van zelfrijdende auto's is het feit dat het menselijke fouten wegneemt, die volgens AXA verantwoordelijk zijn voor 94% van alle rijongevallen. De CDC zegt dat meer dan 30% van de verkeersdoden in de Verenigde Staten te maken heeft met alcohol. En in het Verenigd Koninkrijk schat het Department for Transport dat cijfer op ongeveer een op de zes. Als we morgen wakker worden en elke auto autonoom is, verdwijnt rijden onder invloed van de ene op de andere dag.

Het wordt zelfs nog beter: volgens het Eno Center for Transportation, als 90% van alle voertuigen op de wegen binnenkomt de VS autonoom waren, zou het aantal verkeersongevallen dalen van 5,5 miljoen per jaar tot slechts 1,3 miljoen. Die toekomst is ook niet zo ver weg, aangezien het Institute of Electrical and Electronics Engineers voorspelt dat tegen 2040 ongeveer 75% van alle voertuigen volledig autonoom zal zijn.

De grootste uitdaging voor zelfrijdende auto's die mainstream worden, is om het publiek aan de kant te krijgen. Zonder de juiste oplossingen voor de kwesties rond ethiek en aansprakelijkheid, zal de publieke opinie zeker in de nabije toekomst ijzig blijven.

Autofabrikanten kunnen praten over de technologie totdat ze blauw in het gezicht zijn, maar als een fabrikant een rouwende vrouw niet kan vertellen waarom haar De hatchback van zijn man reed hem net van een klif - of hoestte zelfs de compensatie op - dan zullen zelfrijdende auto's dat waarschijnlijk wel zijn passagiersloos ook.

Dit artikel is oorspronkelijk gepubliceerd in 2016. Op dat moment reageerde Tesla niet op ons interviewverzoek.

Zou je een toekomst zonder bestuurder verwelkomen? Vertel ons je mening door ons te tweeten @TrustedReviews.

Nest Thermostat E recensie

Nest Thermostat E recensie

VonnisEen slim ogend, eenvoudig te installeren apparaat om je verwarming te regelen, de Nest Ther...

Lees Verder

De Huawei Mate 30 Pro en iPhone 11 worden gelanceerd in stormachtig water: vlaggenschepen zinken snel

De verkoop van smartphones keldert voor het zevende kwartaal op rij ondanks de lancering van meer...

Lees Verder

Misschien komt er binnenkort een nieuw Google Glass-model uit, maar raak niet te enthousiast

Google trekt misschien de covers van een nieuwe versie van Google Glass voor het einde van het ja...

Lees Verder

insta story