
Cyberbezpieczeństwo portów najwyższym priorytetem
27 czerwca 2023
Inwestycje dla polskiego offshore wind
21 lipca 2023Szlaki sztucznej inteligencji na morzu przetarł niewielki holownik, mierzący 28 m Svitzer Hermod (jeden ze statków operatora holowniczego Svitzer), który w 2017 r. w porcie w Kopenhadze wykonał szereg zdalnie sterowanych manewrów. Holownik udało się więc m.in. zacumować, oddokować, obrócić o 360° i pilotować do kwatery głównej Svitzer, przed ponownym zadokowaniem. Jednostką sterował zdalnie kapitan statku, który stacjonował w odległej od portu bazie, a testowy rejs był wspólną inicjatywą firm Rolls-Royce i Svitzer. Krótki rejs sprzed 5 lat przeszedł do historii jako pierwsza na świecie prezentacja zdalnie sterowanego rejsu statku handlowego w porcie. Udane testy stały się zachętą do podjęcia kolejnego kroku, czyli próby wykorzystania sztucznej inteligencji jako kapitana statku.
Wielu twórców projektów autonomicznych statków podkreśla, że już w bardzo bliskiej przyszłości (czyli w ciągu kilku lat) na morzach i oceanach pojawią się jednostki sterowane bez udziału żywego człowieka. Eksperci zajmujący się sztuczną inteligencją gaszą jednak taki entuzjazm. Tłumaczą także, że tematyka sztucznej inteligencji jest ostatnio bardzo modna, w materiałach na jej temat pojawia się więc wiele pomyłek, przeinaczeń i tez, których nie udało się poprzeć dowodami. Jedna z najczęstszych z nich polega na traktowaniu wszystkich rozwiązań używających uczenia maszynowego jako synonimu sztucznej inteligencji.
– Algorytmy uczenia maszynowego same się doskonalą w oparciu o przeanalizowane przez siebie dane – podkreśla Paweł Ellerik, ekspert ds. cyfryzacji z firmy AppVerk. – Załóżmy, że nadamy takiemu algorytmowi zadanie polegające na wykrywaniu zagrożenia awarią statku. Jeśli zapewnimy mu możliwie dużo danych bieżących oraz historycznych (pochodzących z poprzednich awarii), to nie musimy wskazywać mu jakie dane świadczą o zagrożeniu awarią. Algorytm taki sam zacznie znajdować korelacje i cechy łączące awarie. Znajdzie on zależności, o których sami nie mieliśmy pojęcia – jego możliwości dokładnej analizy bardzo dużej ilości danych znacznie przewyższają ludzkie zdolności.
Sztuczna inteligencja jest natomiast, zdaniem eksperta, pojęciem o wiele szerszym, bo zakłada ono zdolność maszyny do podejmowania działań, zbliżonych do działań ludzkich. Charakteryzuje ja bowiem rozumowanie, planowanie, kreatywność oraz, a może przede wszystkim, uczenie się. Rozwiązania wykorzystujące sztuczną inteligencję nie pomogą tylko w przewidywaniu potencjalnego problemu, ale podejmą również samodzielne działania w celu jego rozwiązania. W uproszczeniu – uczenie maszynowe odpowiada za przewidywanie na podstawie danych, a sztuczna inteligencja to podejmowanie zautomatyzowanych decyzji między innymi na podstawie tych przewidywań. Jako ograniczenie uczenia maszynowego, P. Ellerik, wskazuje fakt, że uczy się ono na podstawie danych historycznych.
– Przewidywanie natychmiastowe (np. dotyczące nowo wdrożonego rozwiązania) jest więc znacząco utrudnione. Co równie ważne – uczenie maszynowe dotyczy prawd statystycznych. Tymczasem prawdy dosłowne czasami są bardziej skomplikowane, charakteryzuje je duża zmienność i nie zawsze są one odzwierciedlone w danych historycznych – dodaje.
P. Ellerik tłumaczy też, że prawda statyczna powie nam, że dany pojazd w danych warunkach powinien przejechać 100 km na 10 l paliwa, prawda dosłowna tymczasem może okazać się taka, że pojazd ten przejechał 98 km na 10 l paliwa. Dlaczego? Bo dane historyczne nie wykazały korelacji z którąś z pozornie nieistotnych zmiennych (np. nieznacznie obniżone ciśnienie w jednej oponie).
Magdalena Morze, starszy specjalista-analityk w Grupie Badawczej Gospodarki Cyfrowej w Łukasiewicz-Poznańskiem Instytucie Technologicznym, dodaje, że cała trudność we wdrożeniu i akceptacji technologii opartych na sztucznej inteligencji polega właściwie na jednym czynniku: zaufaniu.
– Sytuacje, z jakimi będą mieć do czynienia pojazdy autonomiczne w realnym świecie, są bardzo nieprzewidywalne, a w tym cała trudność w ich tworzeniu. W układzie „human robot interaction” po stronie człowieka jest także kwestia zaufania tego typu pojazdom. Jeśli ludzie mają ufać robotom/pojazdom, chcą wiedzieć i rozumieć, jak to działa, dlaczego i na jakiej podstawie maszyna podejmuje takie, a nie inne decyzje – zaznacza M. Morze. Zwraca też uwagę na badania, które pokazują, że nawet antropomorficzność pojazdów autonomicznych ma znaczenie w procesie ich akceptacji. Badacze przeprowadzili eksperyment, w którym uczestnicy prowadzili standardowy pojazd autonomiczny zdolny do kontrolowania kierownicy i prędkości, albo porównywalny autonomiczny pojazd, tyle że z wyposażonym w dodatkowe cechy antropomorficzne – imię, płeć i głos. Osoby, które prowadziły zantropomorfizowany pojazd o zwiększonych cechach ludzkich, zgłaszały, że ufają swojemu pojazdowi bardziej, były bardziej zrelaksowane podczas wypadku i mniej winiły swój pojazd za spowodowanie kraksy.
Masowe wprowadzenie do użytku autonomicznych jednostek używających sztucznej inteligencji może też oznaczać pojawienie się nowych form ataku hakerskiego.
Łukasz Jachowicz, specjalista ds. cyberbezpieczeństwa w Mediarecovery (firma zajmująca się informatyką śledzą) podaje przykład popularnego od niedawna ChataGPT, który miał mieć wbudowane mechanizmy zabezpieczające przed wykorzystaniem go w niewłaściwych celach. Efektem kreatywności hakerów są popularne w internecie opisy tłumaczące, w jaki sposób przekonać AI, aby pomogła napisać złośliwe oprogramowanie czy wiadomość phishingową.
Artykuł opracowany we współpracy z magazynem Namiary na Morze i Handel
fot. Namiary na Morze i Handel
