
Gigalinery coraz bliżej
10 lipca 2025Algorytmy sztucznej inteligencji znane są od kilkudziesięciu lat. Jednak przez większość tego czasu zajmowali się nimi głównie naukowcy. Naturalnym ograniczeniem ich popularyzacji było duże zapotrzebowanie na moc obliczeniową, pamięć oraz dane. Rozwój komputerów sprawił jednak, że zasoby obliczeniowe stały się łatwo dostępne, a rozwój IoT (tzw. internet rzeczy) oraz sieci komputerowych zapewnił stały dopływ ogromnych ilości danych.
Na początku minionej dekady AI zaczęło coraz wyraźniej przenikać do świadomości społecznej i mediów. Najpierw w postaci asystentów AI (np. Ciri), a później w postaci publicznie dostępnych modeli LLM. Rozpoczęła się moda na AI. Sprawiła ona, że na rozwój tej dziedziny zaczęto przeznaczać ogromne środki. Jednak AI to nie tylko asystenci w telefonie i duże model językowe. To także uczenie maszynowe, analiza obrazów (w tym używane od dziesięcioleci rozpoznawanie pisma) i dźwięków, systemy ekspertowe, klasyfikatory, algorytmy genetyczne i wiele innych.
Sztuczna inteligencja radzi sobie dobrze z bardzo złożonymi zależnościami, wykrywaniem trendów i zależności w danych, analizą niekompletnych i „zaszumionych danych”, znajdowaniem bardzo dobrych (choć nie optymalnych) rozwiązań wyjątkowo złożonych problemów (np. „problem komiwojażera”). Nic więc dziwnego, że znalazła szybko zastosowanie w obszarach tak istotnych dla gospodarki morskiej jak problemy transportowe, modele meteorologiczne i oceanograficzne czy monitoring i eksploatacja systemów technicznych. W tego typu zastosowaniach liczba czynników wpływających na wynik jest ogromna a zależności między nimi bardzo skomplikowane, więc tradycyjne metody obliczeniowe słabo sobie z nimi radzą.
Ok. 2018 r. pojawiło się wiele inicjatyw mających na celu wykorzystanie AI w branży morskiej. Firma Maersk we współpracy z Boston Consulting Group opracowała narzędzie do optymalizacji tras i prędkości statków w celu redukcji zużycia paliwa i emisji spalin. Stena Line we współpracy z Hitachi stworzyła system Stena Fuel Pilot wykorzystujący AI do optymalizacji tras statków w celu redukcji zużycia paliwa przez promy, by w ten sposób zredukować zużycie paliwa o 3–5% na jednostkę i obniżyć emisję CO₂ o ok. 15 tys. t rocznie. OOCL podjęła współpracę z Microsoft Research Asia, której celem było zastosowanie sztucznej inteligencji, aby zaoszczędzić do 10 mln USD rocznie dzięki lepszemu planowaniu tras i zwiększyć punktualność dostaw. Norweska firma StormGeo wykorzystuje natomiast AI do budowy zaawansowanych prognoz pogody, wspomagając w ten sposób optymalizację tras morskich. Podobną funkcjonalność ma system firmy The Weather Company, stworzony przez IBM. Również francuska firma Sinay wykorzystuje AI w swojej platformie do prognozowania warunków meteorologicznych i oceanograficznych, wykorzystywanej do optymalizacji tras statków.
Także porty coraz częściej sięgają po rozwiązania wykorzystujące AI. Europejskim liderem jest tu port w Rotterdamie, wykorzystujący AI do przewidywania najlepszego czasu na cumowanie, rozładunek i przeładunki statków. Pozwoliło to na skrócenie czasu oczekiwania statków o 20%, a w konsekwencji znacząco zwiększyło przepustowość portu bez inwestowania w jego infrastrukturę. Także VTS (Future vessel tracking system) monitorujący zarówno statki jak i drony wykorzystywane przez port i firmy działające na jego obszarze używa AI do wykrywania niebezpiecznych sytuacji w oparciu nie tylko o położenie i zachowanie monitorowanych obiektów, ale także np. dane meteorologiczne. AI stosowana jest również do planowania operacji pogłębiania kanałów portowych, zarządzania cyklem życia aktywów technicznych i infrastruktury. Także obsługa dokumentacji w tym porcie została zoptymalizowana z wykorzystaniem AI, co pozwoliło zaoszczędzić 810 osobodni rocznie (redukcja o 71%) i znacznie zmniejszyło ilość błędów w dokumentacji. Port ten wykorzystuje również autonomiczne pojazdy do transportu kontenerów, zsynchronizowane z automatycznymi dźwigami.
Za światowego lidera wykorzystania AI do optymalizacji funkcjonowania portu należy uznać port w Busan w Korei Południowej. Stworzono tam „cyfrowego bliźniaka” – cyfrową kopię portu, w której AI symuluje i optymalizuje ruch statków, pracę dźwigów i zarządzanie przestrzenią magazynową. Jest ona zasilana danymi z ogromnej sieci przemysłowych czujników IoT, danymi o położeniu i działaniu maszyn i urządzeń w porcie, a nawet danymi o położeniu każdego pracownika portu. Dodatkowy roczny zysk portu dzięki zastosowaniu takiego rozwiązania, wynikający z obsługi większej ilości kontenerów, oszacowano na 7,3 mln USD.
Ogromna popularność medialna AI pociągnęła za sobą znaczne oczekiwania wobec tej technologii. Jednak i tu, w przypadku innych produktów i technologii możemy zaobserwować typową krzywą życia produktu: po początkowym zachwycie i skokowym wzroście oczekiwań następuje faza rozczarowania i ich urealnienia, po czym następuje etap stabilnego rozwoju i upowszechnienia danego rozwiązania. W przypadku AI chyba wchodzimy prawdopodobnie w tę drugą fazę – coraz częściej menedżerowie dostrzegają nie tylko jej zalety i możliwości, ale także ograniczenia i zagrożenia z nią związane.
Nierzadko widuje się próby rozwiązywania przy pomocy AI problemów, które można łatwo rozwiązać tradycyjnymi metodami. Tymczasem wytrenowanie modelu AI wymaga bardzo dużych zasobów mocy obliczeniowej i pamięci oraz pochłania znaczne ilości energii. Warto więc na wstępie zadać sobie pytanie, czy z problemem, który planuje się rozwiązać przy pomocy AI nie można zmierzyć się łatwiej i taniej bardziej tradycyjnymi metodami.
Wyzwaniem może też być zapewnienie danych odpowiedniej jakości i w odpowiedniej ilości. Jeśli model AI zostanie wytrenowany danymi zawierającymi systematyczne błędy, obejmującymi niepełny zakres zmienności lub zmanipulowanymi, będzie zwracał niepoprawne wyniki. Jeśli np. trenujemy model danymi opisującymi działanie systemu w normalnych warunkach, a potem podczas jego używania warunki przestaną być normalne (na przykład ekstremalna pogoda, zawirowania gospodarcze), uzyskane wyniki mogą być dalekie od rzeczywistości.
Innym zagrożeniem związanym z AI jest bezkrytyczne akceptowanie wyników jego działania. Modele AI praktycznie zawsze zwrócą jakiś wynik, nawet jeśli nie będzie on poprawny. Co więcej, często taki wynik może wyglądać bardzo prawdopodobnie. Z pewnością nie raz przekonali się o tym użytkownicy dużych modeli językowych (LLM), gdy model zaczynał halucynować i na przykład wymyślał tytuły książek, które nie istnieją, co trudno było zauważyć na pierwszy rzut oka. Modele LLM określają bowiem w sposób statystyczny najbardziej prawdopodobny ciąg znaków z uwzględnieniem danych wejściowych i wcześniejszego ciągu znaków. Nie dokonują jednak analizy merytorycznej pytania i nie przeprowadzają żadnego wnioskowania logicznego. Można powiedzieć, że taki model to „idealny kłamca” – potrafi tak wymieszać fakty ze swoimi halucynacjami, że bardzo trudno to dostrzec. Tak działają nie tylko LLMy, ale praktycznie wszystkie modele wykorzystujące sztuczne sieci neuronowe.
Sztuczna inteligencja to wspaniałe narzędzie. Pozwala pokonać wiele ograniczeń tradycyjnego IT, wykryć i wykorzystać nieznane zależności, przejąć od człowieka wiele żmudnych zadań. Ma też znaczny potencjał usprawniania wielu procesów, co przekłada się na konkretne zyski. Jednak aby właściwie stosować takie narzędzia, trzeba zrozumieć ich specyfikę i sposób działania oraz wynikające z nich zagrożenia. Należy też pamiętać, że ta dziedzina bardzo szybko ewoluuje – pojawiają się nowe narzędzia i algorytmy, nowe zastosowania, ale także nowe zagrożenia. Wdrażanie i używanie narzędzi AI powinno się odbywać w sposób przemyślany i kontrolowany. Trzeba też zrozumieć, jak wygląda kwestia odpowiedzialności za działania AI.
Artykuł opracowany we współpracy z czasopismem „Namiary na Morze i Handel”.