Dzięki swojemu autopilotowi, czyli systemowi wspomagania prowadzenia pojazdu o różnych poziomach, producent samochodów elektrycznych Tesla jak dotąd pojawiał się w nagłówkach gazet częściej w negatywnym niż pozytywnym kontekście. Lista wypadków, które mają lub potencjalnie mogły mieć związek z systemem, staje się coraz dłuższa. Niektóre z tych wypadków były śmiertelne dla pasażerów.
Gazeta „Washington Post” jako pierwsza podjęła się szczegółowej rekonstrukcji zdarzenia z 2022 r. Mógł być to pierwszy śmiertelny wypadek podczas korzystania z najwyższego poziomu wspomagania, tzw. Full Self-Driving, czyli pełnego autonomicznego prowadzenia pojazdu, który wciąż jest tylko wersją beta.
Wypadek miał miejsce w Evergreen w stanie Kolorado. Według raportu Hans von Ohain, pracownik Tesli i zarazem kierowca pojazdu, oraz Erik Rossiter wracali do domu po rozegraniu partyjki golfa. W pewnym momencie samochód zjechał z drogi, uderzył w drzewo i stanął w płomieniach.
„Washington Post” cytuje nagranie z centrum powiadamiania ratunkowego, według którego von Ohain korzystał wtedy z „funkcji automatycznej jazdy w Tesli”, która sprawiła, że samochód „po prostu zjechał z drogi”. Rossiter, który siedział na fotelu pasażera i przeżył wypadek, potwierdził, że von Ohain faktycznie użył funkcji Full Self-Driving. W tym momencie jest to jednak nie do udowodnienia, ponieważ pożar doszczętnie zniszczył zapisy danych z samochodu. Według „Washington Post” Tesla odmówiła odpowiedzi na pytania dotyczące incydentu.
Von Ohain zginął w wypadku, nie mogąc wydostać się z płonącego samochodu. Jak ustaliła gazeta, w raporcie z dochodzenia jako przyczynę śmierci podano „zatrucie dymem i obrażenia termiczne”. Sekcja zwłok wykazała jednak, że poziom alkoholu we krwi ofiary wynosił 2,6 promila, czyli ponad trzykrotnie więcej niż dopuszczalny limit.
Sądy uważnie przyglądają się autopilotowi Tesli
Tesla zaznacza na swojej stronie internetowej, że autopilot przeznaczony jest dla „uważnego kierowcy, który trzyma ręce na kierownicy i w każdej chwili może przejąć kontrolę”. Raport sugeruje, że w tym przypadku mógł wystąpić zarówno błąd ludzki, jak i błąd techniczny.
Z jednej strony, jak pisze „Washington Post”, to oczywiste, że von Ohain nie byłby w stanie prowadzić samochodu przy takim poziomie alkoholu we krwi. Z drugiej strony analiza wypadku wykazała, że samochód nie był wolny od wad technicznych. Mówi się tutaj o śladach toczenia się opon na jezdni, które sugerują, że po zderzeniu pojazdu z drzewem silnik nadal napędzał koła. Jak twierdzi główny inspektor badający przyczyny wypadku, biorąc pod uwagę dynamikę uderzenia i sposób, w jaki samochód zjechał z drogi bez jakichkolwiek oznak nagłego manewru, jak najbardziej wskazuje na winę aktywnej funkcji wspomagania jazdy.
Kwestia, czy za takie wypadki odpowiedzialni są sami kierowcy, czy również producenci samochodów, jest obecnie przedmiotem zainteresowania coraz większej liczby sądów. Sąd w Kaliforni zajmował się niedawno wypadkiem z 2019 roku, w którym Tesla Model 3, poruszająca się w trybie autopilota, zjechała z drogi, zabijając kierowcę i poważnie raniąc dwóch pasażerów. Sędzia orzekł wówczas, że firma nie ponosi żadnej odpowiedzialności za to zdarzenie. Według „Washington Post” w tym roku trafi do sądów jeszcze co najmniej dziewięć tego typu spraw.
„Elon Musk twierdzi przecież, że samochód potrafi sam siebie prowadzić i że jest nawet lepszy od człowieka” – gazeta cytuje wdowę po ofierze wypadku. „Sprzedano nam fałszywe poczucie bezpieczeństwa”.
Źródło: Der Spiegel