Tech reviews and news

Morte per auto senza conducente: chi è la colpa quando le auto robotiche uccidono?

click fraud protection

È l'anno 2025. La tua auto senza conducente si è appena schiantata contro un albero a 55 mph perché il suo computer integrato dava valore alla vita di un pedone più della tua. Le tue ferite sono il risultato di poche righe di codice che sono state hackerate da un programmatore di software di 26 anni nella Bay Area di San Francisco nei giorni inebrianti del 2018. Mentre aspetti un drone paramedico, sanguinante sul ciglio della strada, ti chiedi: dove è andato tutto storto?

Lo scenario di cui sopra potrebbe sembrare fantasioso, ma la morte per auto senza conducente non è solo inevitabile: sta già accadendo. Più di recente, un'auto a guida autonoma di Uber ha colpito e ucciso un pedone in Arizona, mentre nel maggio 2017, il software semi-autonomo ha fallito in un modo altrettanto tragico quando la Tesla Model S di Joshua Brown ha guidato sotto il rimorchio di un camion a 18 ruote su un'autostrada mentre era in pilota automatico modalità.

Tesla ammette che i suoi sensori di sistema non sono riusciti a distinguere il trailer bianco da un cielo luminoso, provocando la morte prematura del quarantenne della Florida. Ma Tesla afferma anche che i conducenti devono tenere le mani sul volante per evitare che incidenti come questo accadano, anche quando è attivato il pilota automatico. Nonostante il nome, è un sistema semi-autonomo.

Uber, d'altra parte, potrebbe non essere colpevole, secondo un rapporto preliminare della polizia, che attribuisce la colpa alla vittima.

È un fatto triste che queste tragedie siano solo un assaggio di ciò che sta per accadere. Scrivendo questo articolo, mi sono reso conto di quanto siamo tristemente impreparati per il futuro senza conducente, previsto nel 2020. Ciò che è più preoccupante è che questo futuro si sta già riversando nel nostro presente, grazie a sistemi semi-autonomi come l'Autopilota di Tesla e i test di auto a guida autonoma di Uber (ora interrotti).

La tecnologia di domani è qui oggi e con questioni come l'etica e la responsabilità ora impossibili da evitare, le case automobilistiche non possono permettersi di non essere pronte.

Cosa succede quando un'auto senza conducente provoca un incidente e, peggio ancora, uccide qualcuno?

Capire la morte tramite computer

Per affrontare la responsabilità, dobbiamo chiederci come e perché un'auto senza conducente potrebbe uccidere qualcuno. A differenza degli umani, le auto non soffrono la fatica, non sperimentano la rabbia della strada e non possono buttare giù sei pinte di birra prima di mettersi in autostrada, ma può commetti ancora errori.

auto senza conducente 11La Model S di Tesla è dotata di tecnologia autopilota semi-autonoma

Probabilmente, la causa più probabile di "morte per auto senza conducente" sarebbe se i sensori di un'auto interpretassero in modo errato i dati, facendo sì che il computer prendesse una cattiva decisione di guida. Sebbene ogni incidente, fatale o meno, comporterà correzioni e miglioramenti, rintracciare la responsabilità sarebbe un viaggio legale lungo e arduo. Ci tornerò più tardi.

La seconda possibile causa di morte per auto senza conducente è molto più difficile da risolvere, perché è tutta una questione di etica.

Immagina questo scenario: stai guidando in un'auto senza conducente con il tuo coniuge, percorrendo una strada a corsia unica alberata. Ci sono dozzine e dozzine di strade secondarie come questa nel Regno Unito. L'auto viaggia a 55 mph, che è inferiore al limite di velocità nazionale di 60 mph su questa strada.

Si sta avvicinando una curva cieca, quindi la tua auto rallenta fino a una velocità più ragionevole di 40 mph. Mentre giri dietro la curva, vedi che un bambino è corso sulla strada da un sentiero pubblico nascosto tra gli alberi. Sua madre è andata nel panico e lo ha seguito, e ora sono entrambi in mezzo alla strada. È una giornata ventosa e la tua auto è elettrica, quindi non ti hanno sentito arrivare. I sensori della tua auto non li hanno visti fino a quando non sono stati a pochi metri di distanza.

Non c'è possibilità di frenare in tempo, quindi la madre e il bambino moriranno se la tua auto non sterza immediatamente. Se l'auto devia a sinistra, si va fuori strada e si colpisce un albero; se l'auto sterza a destra, si colpisce un camion autonomo che viene nella direzione opposta. È vuoto, quindi tu e il tuo coniuge sareste le uniche vittime.

In questa situazione, l'auto è costretta a prendere una decisione: colpisce quasi i pedoni sicuramente uccidendoli, o rischia i passeggeri nella probabilità che possano sopravvivere al incidente. Le risposte saranno state decise mesi (o anche anni) prima, quando gli algoritmi erano stati originariamente programmati nel sistema informatico della tua auto - e potrebbero benissimo porre fine alla tua vita. Sebbene l'auto non lo sappia, questa è in effetti una decisione etica.

Per dimostrare l'enorme difficoltà di codificare l'etica, provate il Massachusetts Institute of Technology Macchina morale. È un quiz che mira a monitorare come gli umani reagiscono alle decisioni morali prese dalle auto a guida autonoma. Ti viene presentata una serie di scenari in cui un'auto senza conducente deve scegliere tra due mali (ad es. uccidendo due passeggeri o cinque pedoni) e devi scegliere quale pensi sia di più accettabile. Come ti renderai presto conto, è davvero difficile.

auto senza conducente 7Quale scenario sceglieresti? La Moral Machine del MIT è un incubo a guida autonoma

Se tutto questo ti spaventa, non sei solo. A marzo, un sondaggio condotto dall'organizzazione automobilistica statunitense AAA ha rivelato che tre conducenti statunitensi su quattro hanno "paura" di guidare in auto a guida autonoma e l'84% di questi ha affermato che era perché si fidavano le proprie capacità di guida più di quelle di un computer, nonostante le prove schiaccianti che suggeriscono che le auto senza conducente sono significativamente più sicure: l'errore umano è il più grande killer sulle nostre strade, Dopotutto.

Allora perché abbiamo tanta paura? Ho chiesto al Prof. Luciano Floridi, Professore di Filosofia ed Etica dell'Informazione all'Università di Oxford, proprio quella domanda.

"Penso che sia una paura ancestrale dell'ignoto, paura delle macchine. Era il Golem e Frankenstein, e ora è una tecnologia che non controlliamo completamente nel caso delle auto senza conducente ", mi dice il professor Floridi. “Sembra anche essere, forse, una vendita sbagliata da parte dell'industria, dove la sicurezza totale viene venduta come una possibilità, cosa che sappiamo non è il caso. Niente è sicuro al 100%, puoi solo essere più sicuro. "

Quindi, anche se le auto senza conducente sono più sicure e riducono le possibilità di morte di una persona, i conducenti fanno fatica ad accettare l'idea che potrebbero essere uccisi da una macchina, piuttosto che da un errore umano.

Il bene più grande contro la tua sicurezza: chi vince?

Il Massachusetts Institute of Technology ha recentemente intervistato 2.000 persone e ha rilevato che il 76% degli intervistati ci si aspetterebbe che un'auto senza conducente dia la priorità alla sicurezza di un gruppo di dieci pedoni rispetto a un singolo passeggeri. Molto nobile, vero? In etica, questo è chiamato "utilitarismo", che è l'abbreviazione di quando si prendono le decisioni il bene più grande.

Ma gli esseri umani sono animali, e questo significa che l'evoluzione ci ha cablati per proteggere noi stessi e coloro che sono importanti per noi, spesso a scapito del "bene superiore", qualunque esso sia.

Significativamente, quando agli intervistati del MIT è stato chiesto di valutare la moralità di quella stessa macchina senza conducente, quella che si sarebbe schiantata e avrebbe ucciso il suo proprietario per salvare i pedoni - come se essi stessi fossero un passeggero nel veicolo, la valutazione della moralità dell'auto "etica" è caduta da un terzo.

La morale della storia non è una grande sorpresa: a tutti noi piace l'idea di auto utilitarie senza conducente, finché non dobbiamo guidarci in una. Questo sistema di credenze di autoconservazione avrà un effetto acuto sull'industria automobilistica senza conducente. Ad esempio, cosa succederebbe se le case automobilistiche iniziassero a vendere i loro veicoli su base etica? Alcune auto possono essere progettate per tendere sempre al "massimo bene" risultato, mentre altre sono costruite per agire nell'interesse del guidatore o dei passeggeri?

Ma, mentre il professor Floridi crede che l'etica giocherà un ruolo nel marketing dei veicoli senza conducente, non è convinto che verranno venduti in base al loro codice morale:

“Sarebbe una mossa così negativa dal punto di vista pubblicitario. Ciò che vedremo, tuttavia, è una componente etica nella pubblicità in generale. Se ricordi quando le auto hanno iniziato a essere pubblicizzate come più sicure a causa delle cinture di sicurezza, le aziende dicevano che era molto più sicuro in caso di incidente. Sarà così. Non che questo codice etico sia migliore di quel codice etico. "

auto senza conducente 5Il professor Luciano Floridi ritiene che l'etica sia uno dei maggiori ostacoli al futuro delle auto senza conducente

Le auto senza conducente sono incredibilmente complicate?

Purtroppo per tutti noi, mi dice Floridi, le auto senza conducente sono mal equipaggiate per affrontare decisioni così complesse. Crede che nonostante tutti gli sforzi di ricerca e sviluppo si siano concentrati sul portare auto senza conducente Sulle nostre strade, i computer sono intrinsecamente incapaci di gestire le complesse decisioni morali che guidano richieste.

"L'etica è delicata, troppo sottile, troppo aperta per una normale auto senza conducente", spiega. “L'auto di cui ho bisogno per andare dalla campagna a Londra, o da Londra di nuovo a Roma, come facevo quando ero un ragazzo con pochi soldi - puoi immaginare quel viaggio? Circa 2.000 miglia da Oxford a Roma e ritorno? In un contesto in cui potrebbe succedere di tutto, è molto difficile immaginare un ambiente totalmente incontrollato con un'auto senza conducente che abbia successo, senza che io abbia la possibilità di prendere il volante ".

Floridi dice che è "impossibile" creare un algoritmo che possa emulare l'etica umana sulla strada, perché ci sono un numero infinito di possibili scenari che possono sorgere durante la guida. Fa l'esempio di un gatto in mezzo alla strada:

"Potresti dire 'fermati ogni volta' che c'è un gatto, a meno che cosa? A meno che non ci sia un grosso camion che guida a 70 mph dietro di te e tu abbia i tuoi figli in macchina. A quel punto dici "vai e uccidi il gatto", perché la tua famiglia è a rischio. Puoi moltiplicarlo per "solo se" e "a meno che non" per un numero infinito di condizioni. "

perché è così difficile? Ebbene, è molto facile informatizzare un mondo chiuso, dove possiamo comprendere ogni singola condizione. Ma la guida è uno scenario open world, in cui le condizioni sono casuali e impossibili da prevedere, il che rende molto difficile l'informatizzazione. È per questo motivo che Floridi ritiene che non ci sia speranza che il software per auto senza conducente sia sufficientemente eticamente competente, almeno sulle reti stradali esistenti:

"Immagina di giocare a scacchi con qualcuno che ad un certo punto prende una pistola dalla tasca e dice 'non puoi fare quella mossa'", scherza Floridi. "Questo è un diverso tipo di scacchi. Nessun computer può fare nulla al riguardo, non importa cosa ci abbiamo messo. "

Floridi afferma che per affrontare questo problema, le case automobilistiche si stanno già consultando con esperti di etica per assicurarsi che il loro software sia moralmente impermeabile. Ho chiesto un esempio e mi ha detto di aver partecipato a un incontro con Audi “dove le questioni etiche erano l'argomento principale proprio per le implicazioni delle auto senza conducente. Come richiede qualsiasi tecnologia avanzata che sviluppiamo, a un certo punto l'impatto sociale impone una considerazione etica ".

Allora chi paga?

OK, quindi siamo di nuovo sul ciglio della strada e il drone paramedico è finalmente arrivato. L'emorragia si è fermata, sei di nuovo lucido e sei pronto ad affrontare la questione del risarcimento. Non hai schiantato la tua macchina; la tua macchina si è schiantata da sola - chi sta pagando?

"Nel diritto penale e nel diritto civile, il problema è chi ha il controllo del veicolo", mi dice Matthew Claxson, un avvocato specializzato in incidenti stradali presso Slater & Gordon. "Così l'operatore potrebbe dire: 'Beh, stavo leggendo un giornale e ho fatto affidamento sul computer per prendere il controllo del viaggio "e si potrebbe sostenere che il produttore dell'auto sarebbe responsabile. Resta da vedere se perseguono ulteriori rivendicazioni contro i produttori di software ".

Relazionato: Apple CarPlay vs Android Auto

Se una parte di un'auto, come un cambio, per esempio, si guasta oggi nel Regno Unito, spiega Claxson, e la colpa è stata il risultato di una macchina continua a uccidere qualcuno, le proprietà della persona che è morta "di solito fanno causa al conducente dell'auto" o all'operatore dell'auto nel caso di un macchina. La compagnia di assicurazioni del conducente salda quindi il reclamo, ma proseguirà per intraprendere un'ulteriore azione contro la casa automobilistica "dietro le quinte, per recuperare la perdita".

"Uno dei vantaggi della polizza assicurativa del Regno Unito è che fa ricorso a coloro che sono stati gravemente feriti o uccisi a una finanziaria soluzione che può aiutare con le cure mediche, o pagare i costi del funerale, o assistere in qualche modo le famiglie in lutto ", dice Claxson.

Ma c'è un problema che getta una chiave nel lavoro, e questo è l'hacking. All'inizio di quest'anno, è stato scoperto che l'ibrido Mitsubishi Outlander potrebbe essere controllato da hacker grazie a una vulnerabilità nel sistema Wi-Fi di bordo dell'auto. E più recentemente, Fiat Chrysler ha dovuto emettere un richiamo volontario per 1,4 milioni di veicoli dopo un hack che poteva spegnere il motore a distanza fu scoperto.

auto senza conducente 9Le auto senza conducente potrebbero essere violate e danneggiate, quindi chi paga allora?

Quindi, se un'auto senza conducente uccide qualcuno perché è stata hackerata, non sembra giusto attribuire la responsabilità al conducente o al produttore dell'auto. In tal caso, chi paga? Claxson suggerisce la seguente soluzione:

"Abbiamo un processo in questo paese in cui se un'auto viene rubata e uccide o provoca lesioni a qualcuno, il ladro scompare (cioè è un mordi e fuggi), abbiamo un'organizzazione nota come Motor Insurers Bureau, che è un fondo di ultima istanza istituito dal Segretario dei trasporti in questo paese. Ciò interverrebbe per quelle vittime mordi e fuggi e le compenserebbe se sono la parte innocente ".

Continua: "Si spera di vedere un meccanismo simile in futuro, che se un'auto viene hackerata ed è non è colpa del produttore o del conducente, speri che ci sia un fondo simile per assistere quelle vittime ".

Le auto senza conducente sono un incubo di responsabilità

Il messaggio qui è semplice: è abbastanza facile assegnare la responsabilità quando le auto sono completamente autonome. E anche in caso di pirateria informatica, è comunque possibile pagare un risarcimento. Ma cosa succede quando un'auto non è completamente autonoma e il conducente può ancora controllare il veicolo?

Dopotutto, quando Joshua Brown è morto dopo che i sensori della sua auto si sono guastati all'inizio di quest'anno, Tesla ci ha subito ricordato il suo consiglio che il pilota automatico "è una funzione di assistenza che richiede di tieni sempre le mani sul volante. " Tesla ha anche aggiunto: "L'autopilota migliora continuamente, ma non è perfetto e richiede comunque che il conducente rimanga mettere in guardia."

Il punto di partenza è capire esattamente quanto sia autonomo un veicolo. Ci sono molti metodi diversi per farlo, ma il più popolare (finora, comunque) è il sistema SAE, che ha sei diversi livelli di automazione del veicolo:
Livello 0Nessuna automazione - La prestazione a tempo pieno da parte del conducente umano di tutti gli aspetti della guida
Livello 1Assistenza alla guida - L'esecuzione specifica della modalità di guida di accelerazione, decelerazione o sterzata, utilizzando le informazioni sull'ambiente
Livello 2Automazione parziale - L'esecuzione specifica della modalità di guida da parte di uno o più sistemi di assistenza alla guida sia dello sterzo che dell'accelerazione / decelerazione
Livello 3Automazione condizionale - Prestazioni da parte di un sistema di guida automatizzato di tutti gli aspetti dell'attività di guida, con l'aspettativa che un guidatore umano risponda a una richiesta di intervento
Livello 4Alta automazione - Le prestazioni da parte di un sistema di guida automatizzato di tutti gli aspetti della guida, anche se un conducente umano non risponde a una richiesta di intervento
Livello 5Automazione completa - L'esecuzione a tempo pieno da parte di un sistema di guida automatizzata dell'intera attività di guida, in tutte le condizioni stradali e ambientali che possono essere gestite da un conducente umano

Relazionato: Che cos'è Tesla Autopilot?

Anche le auto nuove non raggiungono ancora il livello 5 di autonomia e ci sono molte auto sulla strada che non hanno ancora superato il livello 0. Ciò significa che, in base alla legge vigente, se la tua auto ha un incidente perché non avevi le mani sul volante, anche in un'auto semiautonoma, sei quasi certamente responsabile, almeno secondo Adrian Armstrong, del team di investigazione sulle collisioni della società forense Keith Borer Consulenti:

"Attualmente è colpa del guidatore. Tutte le funzionalità di sicurezza aggiunte, ad esempio la Tesla, sono progettate per essere un'aggiunta al contributo del guidatore. Non dovrebbero sostituire la consapevolezza del conducente. "

Ma come ha dimostrato il caso Tesla, man mano che le auto diventano più autonome, diventa molto più difficile assegnare la responsabilità.

auto senza pilotaDemo DRIVEnet di Nvidia, che mostra i sensori dell'auto che tracciano gli oggetti in tempo reale

Il Dipartimento dei trasporti del Regno Unito suggerisce attualmente che la responsabilità per un veicolo in modalità autonoma spetta con la casa automobilistica, ma quando il conducente ha ripreso il controllo, il conducente dovrebbe assumersi la responsabilità anziché.

Il problema è che è difficile per i conducenti rimanere mentalmente impegnati quando non sono fisicamente impegnati, il che rende il periodo di "passaggio di consegne" difficile da risolvere in termini di responsabilità. Alcuni studi hanno dimostrato che possono essere necessari dai 35 ai 40 secondi affinché i conducenti assumano il controllo effettivo di un'auto quando si torna dalla modalità autonoma.

Le compagnie di assicurazione sono (non sorprendentemente) molto desiderose di risolvere la questione della responsabilità in situazioni imbarazzanti come il dilemma del passaggio di consegne. Una compagnia di assicurazioni che sta già facendo progressi significativi in ​​questo campo è AXA, come spiega Daniel O'Byrne, responsabile degli affari pubblici della compagnia per il Regno Unito:

“Siamo partner di tre delle sperimentazioni finanziate dal governo che stanno cercando di portare a compimento i veicoli senza conducente, connessi o autonomi. Stiamo prendendo il Bowler Wildcat modificato, che è già in grado di essere guidato sotto controllo remoto, ed è stato sviluppato militarmente da BAE. Stiamo cercando di portarlo al livello successivo con i sensori e il processo decisionale, e il punto in cui entriamo in gioco è guardare a questo da una prospettiva di responsabilità assicurativa.

O'Byrne afferma che la società è particolarmente interessata a come viene assegnata la responsabilità durante il periodo di consegna. Dopotutto, mi dice che il governo "alla fine vuole che tu sia in grado di leggere un libro o controllare la posta elettronica su un iPad", aggiungendo: "Sarei molto sorpreso se entro il 2020 tu non puoi semplicemente premere un pulsante in macchina e iniziare a leggere un libro. " Ma questo è un problema enorme, perché significa che il "guidatore" non sta prestando attenzione alla strada ambiente:

“Se l'auto cede il controllo all'essere umano, per quanto tempo è ragionevole consentire a quel guidatore di assumersi nuovamente la responsabilità? Può un conducente passare dalla lettura di un libro alla guida a X miglia orarie in cinque secondi? Probabilmente è irragionevole. Stiamo esaminando quell'aspetto comportamentale, le università stanno guardando la psicologia e il modo in cui le persone reagiscono a quel passaggio di consegne ".

Guarda: dibattito sulla responsabilità autonoma

A differenza degli Stati Uniti, non esiste una legge nel Regno Unito che dice che devi tenere le mani sul volante. Quello che abbiamo in Gran Bretagna è il Road Traffic Act, che obbliga solo i conducenti a prestare "la dovuta cura e attenzione". Sembra frustrantemente ampio fraseggio, ma O'Byrne ritiene che questa ambiguità potrebbe effettivamente dare al Regno Unito un vantaggio rispetto ad altri paesi quando si tratta di costruire una legislazione struttura.

"Eravamo firmatari, ma non ratificatori, della Convenzione di Vienna", afferma O'Byrne, riferendosi al Convenzione di Vienna sulla circolazione stradale, in cui si afferma che i conducenti devono sempre tenere le mani sul volante. "E, in poche parole, mentre il Road Traffic Act afferma che devi prestare la dovuta cura e attenzione, non siamo così prescrittivi come altri paesi dicendo che devi tenere le mani sul volante in ogni momento, il che potenzialmente ci consente un cambiamento nella legge più facile rispetto, ad esempio, Germania."

Il Venturer Consortium, che è il gruppo di prove di auto senza conducente di cui fa parte AXA, sta attualmente testando le prestazioni del conducente durante il processo di consegna in diversi scenari. I risultati di questa sperimentazione saranno estremamente utili per stabilire chi è responsabile e, si spera, riveleranno quanto tempo ha ragionevolmente un conducente per riprendere il pieno controllo di un veicolo.

Una volta che le compagnie di assicurazione ei legislatori giungeranno a una conclusione comune su questo punto, dovrebbe essere più facile stabilire un periodo di tempo standard per i conducenti per riprendere il controllo di un veicolo senza conducente. Ciò dovrebbe rendere molto più facile determinare chi è responsabile, perché il passaggio dai sistemi autonomi al controllo del conducente può essere facilmente monitorato a livello di software. E questo significa che attribuire la colpa è facile quasi come lo è oggi.

auto senza conducente 3I Bowler Wildcats sono attualmente modificati per i test su auto senza conducente nel Regno Unito

Le auto senza conducente valgono tutto questo sforzo?

Siamo onesti: quando i giganti del settore come Tesla, Google e Ford ti dicono che saremo più sicuri con le auto senza conducente, hanno assolutamente ragione. Poiché le automobili iniziano a fare meno affidamento sull'input umano, meno persone moriranno sulle strade.

Secondo i dati dell'OCSE, un decesso si verifica una volta ogni 53,4 milioni di miglia percorse da auto, come media nei 20 paesi dell'UE presi a campione. Negli Stati Uniti, standard di sicurezza stradale superiori alla media riducono tale cifra a una mortalità ogni 94 milioni di miglia. Ma già, oltre 130 milioni di miglia sono state guidate con il pilota automatico di Tesla attivato, con una sola fatalità sui libri.

Parte del fascino delle auto senza conducente è il fatto che spegne l'errore umano, che secondo AXA rappresenta il 94% di tutti gli incidenti di guida. Il CDC afferma che oltre il 30% delle vittime della strada negli Stati Uniti riguarda l'alcol. E nel Regno Unito, il Dipartimento per i trasporti stima che tale cifra si aggiri intorno a uno su sei. Se ci svegliamo domani e ogni macchina è autonoma, la guida in stato di ebbrezza scompare dall'oggi al domani.

C'è di meglio: secondo l'Eno Center for Transportation, se il 90% di tutti i veicoli sulle strade in gli Stati Uniti erano autonomi, il numero di incidenti stradali sarebbe sceso da 5,5 milioni all'anno a solo 1,3 milioni. Nemmeno quel futuro è così lontano, con l'Institute of Electrical and Electronics Engineers che prevede che entro il 2040 circa il 75% di tutti i veicoli sarà completamente autonomo.

La sfida più grande per il mainstream delle auto senza conducente è portare il pubblico dalla parte. Senza soluzioni adeguate per i problemi di etica e responsabilità, l'opinione pubblica rimarrà gelida per il prossimo futuro.

Le case automobilistiche possono parlare della tecnologia finché non sono blu in faccia, ma se un produttore non può dire a una moglie in lutto perché lei la berlina del marito lo ha appena fatto precipitare da un dirupo - o addirittura sputare per il risarcimento - quindi le auto senza conducente saranno probabilmente anche senza passeggeri.

Questo articolo è stato originariamente pubblicato nel 2016. A quel punto, Tesla non ha risposto alla nostra richiesta di intervista.

Gradireste un futuro di auto senza conducente? Raccontaci i tuoi pensieri twittandoci @TrustedReviews.

Finlux 32HBD274B-NC - Revisione del suono e delle conclusioni

Finlux 32HBD274B-NC - Revisione del suono e delle conclusioni

SezioniPagina 1Recensione Finlux 32HBD274B-NCPagina 2Controllo della qualità delle immaginiPagina...

Leggi Di Più

Rob Collins, autore di Trusted Reviews

Ecco come ascoltare online l'epica colonna sonora di Black Panther di Kendrick Lamar Il film Blac...

Leggi Di Più

Lenovo ThinkPad X1 Carbon 2015 - Tastiera, trackpad, opzioni e recensione del verdetto

Lenovo ThinkPad X1 Carbon 2015 - Tastiera, trackpad, opzioni e recensione del verdetto

SezioniPagina 1Recensione Lenovo ThinkPad X1 Carbon 2015Pagina 2Revisione di prestazioni, calore,...

Leggi Di Più

insta story