
Coraz więcej osób sięga po AI do planowania podróży. Bywa, że jest to znakomite rozwiązanie, które znacznie upraszcza sprawę.
Niemniej jednak, wszyscy wiemy, jak to jest z AI. Czasami „nie dowozi”. Przyjrzyjmy się, na co trzeba uważać.
Spis treści
AI będzie pomocna, jeśli potrzebujesz informacji o charakterze ogólnym lub uporządkowania wielu informacji z różnych źródeł w jedno czytelne podsumowanie. Przyda się do zestawień typu „plusy i minusy wakacji nad polskim morzem w lipcu”.
Może przygotować wstępny plan, podpowiedzieć kierunek podróży, wskazać, co ciekawego jest w okolicy. Zasugerować termin, podpowiedzieć optymalną kolejność zwiedzania, oszacować czas przejazdu, zasugerować realistyczną liczbę atrakcji na dzień. Na podstawie danych historycznych AI może przewidzieć pogodę w danym miejscu i czasie.
AI przydaje się również do wyszukiwania mniej oczywistych miejsc na przykład: „kameralne kawiarnie niedaleko klifu z widokiem na morze”, „znajdź pizzerie, która ma plac zabaw dla dzieci”.
Wszystko brzmi pięknie, co zatem jest nie tak?
Anne Hardy, prof. turystyki z Southern Cross University w Australii, poinformowała CNN, że:
90% planów podróży generowanych przez sztuczną inteligencję zawiera błędy.
Dlaczego tak się dzieje? Ponieważ modele LLM zostały skonstruowane tak, aby odpowiadać na pytania użytkownika. Nie doczekasz się szczerego wyznania typu: „sorry, nie mam o tym pojęcia”. W takiej sytuacji AI wymyśla informacje brzmiące logicznie i prawdopodobnie. Szkopuł w tym, że nie zawsze są prawdziwe.
AI może wymyślić nieistniejący kemping, nawet nadać mu prawdopodobnie brzmiącą nazwę typu „Camp Holiday Sunny” na Helu i poinformować, że obiekt posiada stumetrowy basen tuż przy plaży. Faktycznie taki kemping nie istnieje.
AI mogą również wymyślać: skróty drogowe, nieistniejące przepisy prawne, opłaty, wymagania dla turystów, atrakcje turystyczne itp. Wszystko to sprawia, że każdą informację musisz weryfikować w innych źródłach.
Szerokim echem odbiła się historia z Tasmanii. W serwisie Tasmania Tours umieszczono tekst wygenerowany przez AI, któremu nikt dokładniej się nie przyjrzał. Zachęcał do wizyty w miejscowości Weldborough i kąpieli w lokalnych, gorących, leśnych źródłach, które po prostu nie istniały.

Fot. Grafika wygenerowana przez AI przedstawiająca nieistniejące gorące źródła.
Turyści zaczęli przyjeżdżać i szukać obiektu, który wymyśliła AI. Dzwonili do hoteli, firm turystycznych i pytali o Weldborough Hot Springs. Nazwę również wymyśliła AI. Wreszcie sprawa trafiła do krajowej telewizji.

Fot. Post o nieistniejących źródłach i historii z Tasmanii na profilu CTV.
Nietypowa historia wydarzyła się w Malezji. Starsza para przebyła ponad 300 kilometrów, aby przejechać się kolejką górską. Szkopuł w tym, że kolejka nie istniała i została wygenerowana przez AI na filmie. Ów film był stylizowany na reportaż, w którym dziennikarka pytała turystów o ich wrażenia z przejazdu nieszczęsną kolejką.

Fot. Kadr z filmu AI.
Starsi państwo nie wiedzieli, że to deepfake i nic z tego nie rozumieli. Kiedy pracownicy hotelu wyjaśnili im, że kolejka nie istnieje, starsza pani pytała:
Dlaczego ktoś miałby kłamać? Przecież na nagraniu był nawet reporter.
Przy okazji tej sprawy w lokalnych mediach pojawiły się propozycje, aby wprowadzić przepisy prawne wymagające oznaczania materiałów wygenerowanych przez AI na przykład znakiem wodnym lub dużą, żółtą kropką w rogu. Zwolennicy argumentowali:
Na razie mylą się tylko dzieci i osoby starsze, ale kiedy technika pójdzie do przodu, wszyscy zaczniemy się mylić i pogubimy w takim chaosie.
Podczas ubiegłej zimy TOPR musiał podjąć akcje ratunkową i ściągnąć na dół turystów, którym trasę wytyczył CzatGPT. W Portalu Tatrzańskim napisano:
kierowani przez popularny ChatGTP turyści wybrali bardzo niebezpieczny w tę porę roku wariant drogi z Doliny Pięciu Stawów Polskich na Halę Gąsienicową. A tym skrótem była Przełęcz Krzyżne.
W warunkach zimowych dla niedoświadczonych i nieprzygotowanych turystów jest to droga niemal nie do przejścia.
Plany finansowe tworzone przez AI są zbyt optymistyczne i nie uwzględniają wielu wydatków. Jest to szczególnie wyraźne w przypadku caravaningu.
Podczas tworzenia budżetu AI pomija masę kosztów, na przykład: kaucję przy wypożyczeniu kampera, opłaty klimatyczne, winiety, napiwki, opłaty serwisowe. Liczy minimalne spalanie, nie uwzględnia korków. Czasami zupełnie pomija pewną grupę wydatków, na przykład koszty żywienia liczy jako zero, ponieważ będziecie gotować w kamperze.
Z mojego doświadczenia wynika, że optymistyczny budżet przygotowany przez AI można spokojnie zwiększyć o połowę.
Bywa, że przepisy prawne są bardzo złożone i zależą od regionu danego kraju, np. w pewnej części kraju wolno biwakować na dziko, ale w innej już nie. Przepisy mogą uwzględniać wyjątki, na przykład „tylko na jedną noc”, nie obowiązywać w pewnych miesiącach lub zmieniać się blisko parków narodowych.
Tyle zmiennych sprawia, że czasami AI nie nadąża za poziomem komplikacji i wprowadzi Cię w błąd. Może również uprościć sprawę i w ogóle nie wspomnieć o wyjątkach w przepisach.
Błędy AI mogą sprawić, że otrzymasz mandat, skomplikujesz sobie wycieczkę lub w skrajnym przypadku w ogóle nie zostaniesz wpuszczony za granicę.
Takie rzeczy już się zdarzają. Turyści z Hiszpanii nie pojechali na romantyczne wakacje w Karaibach przez słuchanie CzatuGPT. Influenserka Mery Caldass i jej partner utknęli na lotnisku, gdyż CzatGPT udzielił im mylnej porady w zakresie niezbędnych dokumentów wizowych.
AI nie ponosi odpowiedzialności za błędne doradztwo. Ty ją poniesiesz, ponieważ wszelkie ryzyko związane z korzystaniem z modeli LLM spada na użytkownika.

AI oparta na modelach LLM może pomóc w planowaniu podróży, ale trzeba zachować dystans, ostrożność i sprawdzić samodzielnie kluczowe rzeczy. Szczególnie uważaj na: przepisy prawne, kosztorysy i planowanie trasy. AI na pewno nie powinna być jedynym źródłem informacji przy podejmowaniu decyzji.
Osobiście używam AI do „ogólnego rozeznania się” w temacie. Zebrania pomysłów, atrakcji, zabytków, ale nigdy do szczegółowego zaplanowanie trasy lub liczenia budżetu. Z tego, co zaobserwowałam wynika, że AI notorycznie myli kempingi i miejscówki do biwakowanie na dziko (nawet jeśli w pytaniu padły konkrety). Może Cię wysłać w szczere pole lub uraczyć poradą typu:
na Mazurach możesz spać wszędzie, pod warunkiem, że chce ci się spać. Jeśli nie chce ci się spać, to nie uśniesz ani na kempingu ani pod namiotem.
Bywa, że przy planowaniu tras AI zupełnie ignorują sezonowość (nawet jeśli w pytaniu padły konkrety). Podają średni czas na przejście lub przejechanie danego odcinka, co na przykład zimą w górach zupełnie nie odpowiada stanowi faktycznemu.