Reklama

ad1a poleco 24 [08.10-16.10.24]

Dlaczego samochód autonomiczny potrącił pieszą?

Dlaczego samochód autonomiczny potrącił pieszą?
sm
08.05.2018, o godz. 11:46
czas czytania: około 2 minut
1

Czujniki samochodu autonomicznego Uber, który w marcu spowodował śmiertelny wypadek w Tempe w Arizonie, wykryły pieszą na jezdni, ale zignorowały zagrożenie – wynika z nieoficjalnych informacji uzyskanych przez amerykańskie media.

Dalsza część tekstu znajduje się pod reklamą

Reklama

AD1A Forum Recyklingu 2024 [04.07-14.10.24]

Do wypadku doszło w niedzielny wieczór. Samochód Volvo XC90 testowany przez firmę Uber potrącił i zabił pieszą przeprowadzającą rower przez jezdnię. Samochód jechał w trybie autonomicznym z prędkością 65 km/godz, a za kierownicą siedział kierowca testowy.

Na filmie opublikowanym po wypadku widać, że kierowca nie śledził on sytuacji na drodze. Spojrzał na jezdnię dopiero w ostatnim momencie przed uderzeniem w pieszą, ale nie zdążył zareagować.

Potrącona kobieta zmarła w szpitalu. Była to 49-letnia bezdomna prowadząca rower obwieszony foliowymi workami. Wyszła na jezdnię z cienia po prawej stronie pasa ruchu. Był to pierwszy wypadek śmiertelny spowodowany przez samochód autonomiczny.

Fałszywy alarm zignorowany

The Information opublikował wczoraj pierwsze nieoficjalne ustalenia z wewnętrznego śledztwa ws. wypadku prowadzonego przez firmę Uber. Ustalono, że system detekcji samochodu autonomicznego wykrył pieszą i mógł zahamować. Uznał jednak, że można zignorować zagrożenie, bo jest zaprogramowany tak, by nie reagować na „fałszywe alarmy”, np. na torbę foliową czy gazetę leżącą na jezdni.

Uber uznał, że to oprogramowanie jest winne wypadku.

Uber w związku z wypadkiem zawiesił testowanie samochodów w Tempe, Pittsburgu, San Francisco i Toronto. Swoje zespoły do zbadania przyczyny wypadku powołały najważniejsze instytucje zajmujące się bezpieczeństwem na drogach. Dochodzenie prowadzi też Krajowa Komisja Bezpieczeństwa Transportu.

System musi się nauczyć

Sarah Abboud, rzeczniczka firmy Uber, nie potwierdziła doniesień prasy i odmówiła komentarza w sprawie, powiedziała jednak, że firma zainicjowała “kompleksową ocenę bezpieczeństwa” w oprogramowaniu samochodów autonomicznych.

W piątek w Phoenix w Arizonie doszło do zderzenia samochodu autonomicznego Chrysler Pacifica testowanym przez firmę Waymo z Hondą Civic, ale w tym wypadku wszystko wskazuje na winę kierowcy Hondy.

Kilka korporacji prowadzi testy samochodów autonomicznych w miastach Ameryki. Firmy twierdzą, że samochody autonomiczne będą bezpieczniejsze od tych prowadzonych przez zwykłych kierowców, pod warunkiem, że ich oprogramowanie pozna i nauczy się setek tysięcy sytuacji drogowych, które zdarzają się kierowcom na drodze.

Udostępnij ten artykuł:

Komentarze (1)


Maciej

Komentarz #11250 dodany 2018-05-09 21:12:35

Smochód rozpoznaje człowieka,a mimo to nie zwalnia? To coś jest nie tak.. Lepiej mi się nie będzie jeździło żadnym innym autem niż moim wysłużonym korando. Człowiek jednak jest niezawodny, Nie widzę jakoś potrzeby by jeździć autonomicznym autem mi jazda frajde sprawia, przerzucanie biegów itd

Reklama

AD1A Forum Recyklingu 2024 [04.07-14.10.24]

Dodaj komentarz

Możliwość komentowania dostępna jest tylko po zalogowaniu. Załóż konto lub zaloguj się aby móc pisać komentarze lub oceniać komentarze innych.
Reklama

ad3b zm MSO [12.08-16.10.24]

Te artykuły mogą Cię zainteresować

Przejdź do Smart city
css.php
Copyright © 2024