Moderator
Mimo, że samochody prowadzone przez sztuczną inteligencję są dużo bezpieczniejsze, dalej mogą powodować wypadki. Kto powinien za nie odpowiadać? Właściciel? Producent? Ubezpieczyciel? A może nikt, jak w przypadku zdarzeń losowych?
Właściciel pojazdu, jeżeli bez problemów może odzyskać kontrolę nad autem i zapobiec wypadkowi.
Producent, jeżeli przez jego decyzje Właściciel nie mógł zareagować (brak możliwości odzyskania kontroli nad pojazdem).
A przynajmniej ja tak uważam, bo myślę, że jest to logiczne. Szczerze nigdy nie jechałem autem sterowanym przez sztuczną inteligencję :/
Czy w takim razie według ciebie powinno się dawać takie samochody osobom bez prawka?
Moderator
W takim razie prawo jazdy nie ma sensu.
Moderator
Obecnie nie ma, ale warto o takich rzeczach dyskutować już teraz, bo jest duże prawdopodobieństwo, że w przyszłości takie będą.
Czy takie samochody są w Polsce? (W sensie sterowane przez SI)
Jeżeli dalej będą takie podatki i infrastruktura? Prędzej dokonamy odkrycia teleportacji.
Ogólnie to mi się ciężko o tym wypowiedzieć, bo samemu nie widziałem takiego samochodu.
Nie sądzę, by ktokolwiek z tej grupy widział XD
To jest skomplikowana tematyka, bo jak napisał Vader jest wiele możliwych rodzajów. Dokładniej, klasyfikuje się je zwykle na 6 poziomów:
Poziom 0 - Ostrzeżenia i możliwe awaryjne czasowe przejęcie kontroli przez komputer
Poziom 1 - Dzielenie się kierowaniem, czyli kierowca musi wciąż trzymać kierownicę, ale automatyczne systemy mogą mu bardziej pomagać np. kontrolując prędkość, czy zmieniając pasy. Kierowca jednak musi zawsze być gotowy przejąć kontrolę
Poziom 2 - Pełna kontrola komputerowa, ale kierowca musi być w każdej chwili gotowy by przejąć sterowanie
Poziom 3 - Kierowca może odwrócić uwagę od drogi, ale musi wciąż być gotowy przejąć kontrolę w jakimś sensownym czasie
Poziom 4 - Pojazd jest w stanie sam się kierować bez żadnej interwencji ze strony kierowcy (ten może nawet spać) w określonych warunkach, ale nie zawsze. Czasami kierowca wciąż może musieć przejąć kontrolę.
Poziom 5 - kierownica jest w zasadzie opcjonalna.
No cóż, oczywistym jest że poziom 0 to wina człowieka (chyba, że to chwilowe przejęcie kontroli będzie powodem wypadku, ale to zwykle ma temu zapobiegać raczej :D) i chyba nie będzie bardzo kontrowersyjne powiedzenie, że poziom 1 też - bo wciąż kierowca się w zasadzie zajmuje większością prowadzenia.
Poziom 2 w większości przypadków raczej też, w końcu nie bez powodu jest tu konieczne uważanie na drogę... Jeśli ktoś tego nie robi, to jak dla mnie tak jakby się nie patrzył na drogę w zwykłym samochodzie i miał pretensje że wjechał w ścianę :) O ile kierowca miał szanse powstrzymać wypadek gdyby uważał na drogę, to jest to jego wina.
Od poziomu 3 zaczyna się więcej problemów... Tutaj jak dla mnie trudno powiedzieć coś zupełnie ogólnego i dużo by zależało od konkretnych wypadków. Jeśli samochód powiadomił kierowcę o problemie i ten miał dość czasu by powstrzymać wypadek, to jest to z pewnością wina kierowcy.
Ale co jeśli tak nie było? No cóż, tu staje się to już większym problemem.
Jak dla mnie jednak powinno to się liczyć jako wada produktu - co oznacza, że tak jak w wypadku wszystkich innych wadliwych produktów ofiara może pozwać producenta by dostać odszkodowanie i czasami zadośćuczynienie.
W zasadzie to samo tyczy się poziomu 4 i poziomu 5 w momencie gdy człowiek manualnie nie prowadzi.
Oczywiście to wszystko zakłada, że to samochód autonomiczny był winny wypadku, a nie ten drugi - na co jak na razie statystyki wskazują :)
Do 2016 z tego co wiem wszystkie wypadki z udziałem autonomicznych samochodów były winą kierowców z którymi te się zderzały. W 2016 jednak była pierwsza śmierć wynikająca z użycia autopilota w tesli...
Ale autopilot to poziom 2. Kierowca musi być gotów przejąć kontrolę. Śledztwo ujawniło, że nie był i to doprowadziło do wypadku.
W tym samym roku jednak był też pierwszy wypadek z winy samochodu Google. Był to 18 wypadek autonomicznych samochodów google do tamtej pory, więc w tamtym momencie oznaczało to, że 5,5% wypadków jest z winy AI.
Do 2018 było jeszcze kilka wypadków z udziałem autopilota tesli, ale znowu - to poziom drugi, więc kierowca powinien być w stanie zareagować.
W 2018 jednak mieliśmy pierwszy - i jak dotąd jedyny - śmiertelny wypadek z udziałem autonomicznego samochodu poziomu 3. Samochód Ubera potrącił pieszą przechodzącą prze drogę (nie po pasach). Tyle, że ponieważ był to samochód testowy, to był tam też kierowca którego pracą było monitorowanie działania samochodu. Więc znowu - gdyby kierowca wykonał swoją robotę, nic by się nie stało. Nie bez powodu eksperymentalne pojazdy mają takich kierowców... Bo software nie był do końca dopracowany i jak się okazało, zdecydował że trzeba awaryjnie hamować by powstrzymać zderzenie, ale... Nie mógł tego zrobić. Bo tylko kierowca był w stanie to zrobić, a komputer nie dostał sposobu na powiadomienie go o takiej sprawie...
Podsumowując: jak na razie na już chyba kilkadziesiąt wypadków z udziałem pojazdów autonomicznych poziomu >2 tylko kilka było z winy algorytmów kierujących pojazdem. A pamiętajmy, że obecnie mówimy o samochodach testowych.
Plus jedną ważną rzeczą jeśli chodzi o dylemat tego, czyją winą jest wypadek jest to, że nie powinno to w żadnym wypadku (hehe) spowolnić wprowadzenia samochodów autonomicznych. Bo tak długo jak są w stanie zmniejszyć ilość wypadków na drogach, to szukanie winnych jest sprawą drugorzędną.
Na pewno wolałbym, by wiele razy mniej ludzi ginęło na drogach w zamian za to, że niewielka ilość musi chodzić po sądach by dostać odszkodowania, niż by kwestia sądzenia się była prostsza, ale na drogach ginęła masa osób
Wydaję mi się, że to zależy od tego jak producent opisuję swój towar.
Jeśli będzie go reklamować w stylu "nie potrzebuję jakiegokolwiek wysiłku od kierowcy" to to on odpowiada za wypadki, ale jeśli to tylko "wspomaganie kierowania, by ułatwić ci jazdę" to już faktycznie co innego
Moderator
Komputery też, ale dużo rzadziej.