ScipioAfricanus
Stara legenda
- Poruka
- 92.122
Nalepnicom zavarali Teslin autopilot - vozilo skrenulo u pogrešan smer
Istraživači koji se bave problemima bezbednosti saobraćaja sproveli jednostavan eksperiment čiji rezultati pokazuju da bi Tesla autopilot u određenim uslovima mogao da skrene u pogrešnu traku, krene u susret automobilima iz suprotnog smera, i tako ih sve dovede u opasnost.
Ranjivost sistema nije dokazana tako što je on hakovan, već upotrebom naizgled bezazlenih nalepnica koje uspevaju da prevare unapređeni Teslin autopilot Modela S 75 da detektuje i prati lažne promene u okviru trake kojom se kreće, prenosi PC Press.
Autopilot podržava različite funckije, uključujući centriranje automobila u traci kojom se kreće, autonomno parkiranje, te automatsko menjanje trake uz potvrdu vozača.
Sistem se inače oslanja na kamere, ultrazvučne senzore i radar, kada je u pitanju prikupljanje informacija o okruženju, preprekama, terenu i promenama u okviru traka na putu. Informacije se potom šalju u kompjuter, pa automobil na osnovu njih donosi odluke u realnom vremenu.
Bezbednosni eksperti sproveli su eksperiment u okviru kojeg se pratilo kako se autopilot ponaša kada se promene uslovi na putu, te su u okviru jednog dela korišćene i nalepnice koje su se postavljale na put kojim se vozilo kretalo, a tako da vozač nije mogao da ih vidi.
Algoritmi su ih ipak registrovali, te doživljavali kao informaciju da traka kojom se kreću skreće ulevo, te je i vozilo kretalo u tom smeru, a u susret automobilima koji su dolazili iz suprotnog smera.
Ranjivost se pojavila u okviru "detect_and_track" opcije kojom se detektuju trake na putu, i uz pomoć kojih se ažurira interna mapa iz koje se šalju informacije upravljaču.
Mogućnost uticanja na „ponašanje“ autonomnih automobila uz pomoć promena u okruženju nije ništa novo. Još 2017. dokazano da promene na putu izazivaju određene probleme, a poenta ovakvih eksperimenata je da se prepoznaju sve moguće ranjivosti, te da se sistem ažurira tako da se broj mogućih grešaka svede na minimum.
https://www.b92.net/automobili/razno.php?yyyy=2019&mm=04&nav_id=1525467
FAIL.
Istraživači koji se bave problemima bezbednosti saobraćaja sproveli jednostavan eksperiment čiji rezultati pokazuju da bi Tesla autopilot u određenim uslovima mogao da skrene u pogrešnu traku, krene u susret automobilima iz suprotnog smera, i tako ih sve dovede u opasnost.
Ranjivost sistema nije dokazana tako što je on hakovan, već upotrebom naizgled bezazlenih nalepnica koje uspevaju da prevare unapređeni Teslin autopilot Modela S 75 da detektuje i prati lažne promene u okviru trake kojom se kreće, prenosi PC Press.
Autopilot podržava različite funckije, uključujući centriranje automobila u traci kojom se kreće, autonomno parkiranje, te automatsko menjanje trake uz potvrdu vozača.
Sistem se inače oslanja na kamere, ultrazvučne senzore i radar, kada je u pitanju prikupljanje informacija o okruženju, preprekama, terenu i promenama u okviru traka na putu. Informacije se potom šalju u kompjuter, pa automobil na osnovu njih donosi odluke u realnom vremenu.
Bezbednosni eksperti sproveli su eksperiment u okviru kojeg se pratilo kako se autopilot ponaša kada se promene uslovi na putu, te su u okviru jednog dela korišćene i nalepnice koje su se postavljale na put kojim se vozilo kretalo, a tako da vozač nije mogao da ih vidi.
Algoritmi su ih ipak registrovali, te doživljavali kao informaciju da traka kojom se kreću skreće ulevo, te je i vozilo kretalo u tom smeru, a u susret automobilima koji su dolazili iz suprotnog smera.
Ranjivost se pojavila u okviru "detect_and_track" opcije kojom se detektuju trake na putu, i uz pomoć kojih se ažurira interna mapa iz koje se šalju informacije upravljaču.
Mogućnost uticanja na „ponašanje“ autonomnih automobila uz pomoć promena u okruženju nije ništa novo. Još 2017. dokazano da promene na putu izazivaju određene probleme, a poenta ovakvih eksperimenata je da se prepoznaju sve moguće ranjivosti, te da se sistem ažurira tako da se broj mogućih grešaka svede na minimum.
https://www.b92.net/automobili/razno.php?yyyy=2019&mm=04&nav_id=1525467
FAIL.