Piggybacking w wykonaniu robota

Czy nadmierne zaufanie do robotów może stanowić istotne zagrożenie dla bezpieczeństwa fizycznego? Studenci z The Harvard John A. Paulson School of Engineering and Applied Sciences (SEAS) przeprowadzili eksperyment, którego celem było znalezienie odpowiedzi na to pytanie. Wyniki są zaskakujące.

W czasie eksperymentu robot umieszczany był przed drzwiami akademika, chronionymi przez system kontroli dostępu (SKD), gdzie prosił przypadkowych przechodniów o umożliwienie dostania się do strefy chronionej.

19% (*) pojedynczych osób (3/16 osób) umożliwiało robotowi wejście do strefy chronionej. W przypadku prośby o umożliwienie wyjścia z obiektu, było to już 40% pojedynczych osób (4/10 osób) poddanych badaniu. Co ciekawe, grupy osób były bardziej chętne, aby pomóc robotowi wejść do strefy chronionej obiektu (71%, 10/14 grup).

Kiedy robot został ucharakteryzowany na dostawcę jedzenia pracującego dla fikcyjnego start-upu Robot Grub (pol. Robocie żarcie – tł. własne), pojedyncze osoby znacznie chętniej wpuszczały go do strefy chronionej obiektu (76%, 16/21 osób – dla porównania niezmodyfikowanego robota wpuszczało tylko 19%, 3/16 osób).

Warto zauważyć, że uczestnicy eksperymentu, którzy zidentyfikowali robota jako zagrożenie bombowe, wykazali szczególną skłonność do pomagania robotowi (87%, 7/8 pojedynczych osób; 86%, 6/7 grup). Dla porównania uczestnicy, którzy nie dostrzegli w robocie zagrożenia bombowego, pomagali robotowi rzadziej (41%, 16/39 pojedynczych osób; 72%, 13/18 grup).

Irracjonalne? Kto by się tego spodziewał?

 

Źródło: https://pixabay.com/pl/illustrations/technologia-robota-futurystyczny-3940288/

 

W sumie przeprowadzono 72 próby. W 15 próbach uczestnicy zidentyfikowali robota jako zagrożenie bombowe, a w 8 próbach określili go jako potencjalny żart. Potwierdzała to werbalna interakcja z robotem, a następnie wyniki wywiadów z uczestnikami, którym zadawano pytania: „Dlaczego pozwoliłeś lub nie pozwoliłeś robotowi wejść do środka? Jakie były Twoje wątpliwości lub obawy?”.

Jednym z najpopularniejszych ataków, które pozwalają obejść systemy kontroli dostępu są piggybacking (ma miejsce, kiedy autoryzowany personel świadomie używa swojej karty dostępowej celem wpuszczenia innych, nieautoryzowanych osób do strefy chronionej) i tailgating (ma miejsce, kiedy nieautoryzowana osoba dostaje się do strefy chronionej bez wiedzy autoryzowanego personelu – np. jest w stanie przytrzymać drzwi lub przemknąć niezauważona za plecami posiadacza aktywnej karty dostępowej). Wydawać by się mogło, że odpowiednie regulacje wewnętrzne i szereg kampanii uświadamiających zagrożenia w obszarze bezpieczeństwa fizycznego na dobre podniosło świadomość personelu mającego dostęp do chronionych obiektów. Tymczasem, okazuje się, że scenariusz, w którym napastnikiem jest robot, nakazuje zrewidować ten pogląd – piggybacking w wykonaniu robota okazał się nadzwyczaj skuteczny.

Reasumując, trzeba przyznać, że decyzje uczestników eksperymentu każą nam się zastanowić nad tym, czy nie obdarzamy robotów (i być może szerzej wszelkich autonomicznych systemów) zbyt dużym zaufaniem? „I co teraz?” – pozostaje nam zapytać samych siebie metalicznym, robocim głosem.

 

Dokładny opis przebiegu eksperymentu i jego wyników dostępny jest w publikacji: S. Booth, J. Tompkin, H. Pfister, J. Waldo, K. Gajos, R. Nagpal, „Piggybacking Robots: Human-Robot Overtrust in University Dormitory Security”, http://www.eecs.harvard.edu/~kgajos/papers/2017/booth17piggybacking.pdf, stan z dn. 9 czerwca 2019.

 

(*) Wartości wyrażone w procentach przeliczyłem samodzielnie i zaokrągliłem, tak jak zrobiono w oryginalnym opracowaniu – przy czym, oryginał nie podaje wszystkich wartości wyrażonych w procentach, a w przypadku proporcji 16/39 pojedynczych osób podano wartość 51%, podczas gdy wartość ta powinna wynosić 41%.