Czy zaufamy autonomicznym samochodom?

W projektowaniu autonomicznych samochodów bardzo istotna jest kwestia zaufania. W jak dużym stopniu możemy zaufać maszynie? I czy ona zawsze powinna ufać kierowcy? Takimi zagadnieniami zajmuje się prof. Marta Kwiatkowska z Oksfordu.


 Autor: Ludwika Tomala, naukawpolsce.pap.pl


 

Czy zaufałbyś/zaufałabyś autonomicznemu samochodowi na tyle, aby wysłać nim swoje dzieci do szkoły? Problem zaufania to istotna kwestia, z którą muszą się zmierzyć producenci autonomicznych samochodów. Samochodów, które sterowane są dzięki algorytmom. Badaniem tej tematyki zajmuje się informatyk prof. Marta Kwiatkowska, Polka z brytyjskiego Uniwersytetu w Oksfordzie. Swoje badania prezentowała w Cambridge podczas konferencji Science: Polish Perspectives.

 

Dostępne na rynku rozwiązania (np. autopilot Tesli) wymagają jeszcze obecności i kontroli kierowcy. Jednak niektórzy kierowcy są bliscy paniki, kiedy jadą z włączonym autopilotem. Tu zaufania do maszyny zdecydowanie brakuje. Ale są i tacy, którzy – wbrew wskazaniom producenta – drzemią za kierownicą – np. w korku na autostradzie – zdając się całkowicie na działanie algorytmów.

 

Prof. Kwiatkowska przyjęła definicję, że zaufanie to gotowość jednej strony – ufającego – by wystawić się na skutki działania drugiej strony. Zaufanie bazuje na przeświadczeniu, że druga strona wykona konkretne działanie, ważne dla ufającego, nawet, jeśli nie będzie obserwowana czy kontrolowana.

 

Mówiła o dylematach, z którymi prędzej czy później trzeba się będzie zmierzyć podczas pisania algorytmów do pojazdów autonomicznych. Czy kiedy na drodze auta pojawia się grupa wielu pieszych i samochód nie ma szans wyhamować, powinien poświęcić życie swojego pasażera, np. gwałtownie skręcając i uderzając w drzewo? A co, jeśli są dwie opcje – uderzyć w jedną osobę albo w kilka? Kiedy takie sytuacje zdarzają się w życiu, kierowca musi podjąć decyzję w ułamku sekundy. Nie zdąży nawet się zastanowić. A twórca algorytmu będzie pewnie musiał uwzględnić i takie ewentualności.

 

W życiu zdarzają się osoby, które są skłonne poświęcić swoje życie, aby ocalić innego, ale i takie, które nie zdecydują się na taki krok. „Którym samochodem wolelibyście jechać – takim, który poświęca życie pasażera, czy takim, który gwarantuje jego bezpieczeństwo?” – pytała prof. Kwiatkowska. I dodała, że jest to również problem dla producenta, który przecież powinien pasażera bronić przed zagrożeniami.

 

Z zaufaniem wiąże się też to, że auto – w potencjalnej nieskończoności danych wejściowych – może popełniać błędy. Nie jest więc wykluczone, że np. maszyna mylnie zinterpretuje sygnały z kamer. „Czasami jeden piksel może zmienić klasyfikację obrazu” – powiedziała Kwiatkowska. I wyjaśniła, że taki drobny błąd może sprawić, że auto potraktuje światło czerwone, jako zielone.

 

Badaczka zwróciła też uwagę na kwestię zaufania maszyny do kierowcy. „Ludzie potrafią być naprawdę zuchwali” – skomentowała. Dlatego trzeba się też zastanowić, w jakiej sytuacji auto nie powinno ufać kierowcy. Opowiadała, że czasami kierowcy wystawiają auto na próbę i wydają mu niemądre polecenia. Jak daleko samochód powinien ufać pasażerowi?

 

Prof. Kwiatkowska powiedziała, że w następnym kroku – jeśli chodzi o problem zaufania ludzi wobec maszyn – trzeba będzie połączyć siły: inżynierów, przedstawicieli nauk społecznych oraz osób, które mają wpływ na kształtowanie polityki.

 

Konferencja Science: Polish Perspectives, która odbywała się 3 i 4 listopada, miała na celu integrację środowiska polskich naukowców pracujących za granicą. Portal Nauka w Polsce był jednym z patronów medialnych wydarzenia.

Autor: Ludwika Tomala

  • Alek Grzywacz

    Białkowiec ma intuicję i potrafi czytać sygnały nieformalne świadomie bądź nieświadomie wysyłane przez innych uczestników ruchu. Sądzę, że trzeba jeszcze wiele mocy
    obliczeniowej by zalogrytmiozować np. „niedzielnych kierowców”, nawiązywanie kontaktu wzrokowego, czy przewidzenie spadającego wiadra jadąc za niestarannie załadowaną ciężarówką.