Όταν η Τεχνητή Νοημοσύνη σας στέλνει στον Πύργο του Άιφελ... στο Πεκίνο

Μια φανταστική πόλη στο Περού, ένας πύργος του Άιφελ στο...Πεκίνο. Oi ταξιδιώτες χρησιμοποιούν όλο και περισσότερο εργαλεία όπως το ChatGPT για τα ταξίδια τους με αποτέλεσμα να κατευθύνονται σε προορισμούς που δεν υπάρχουν
Ο Πύργος του Άιφελ
Unsplash
4'

Η χρήση της τεχνητής νοημοσύνης (AI) στον προγραμματισμό ταξιδιών αυξάνεται ραγδαία, με εργαλεία όπως το ChatGPT να προσφέρουν ιδέες για δρομολόγια σε εκατομμύρια χρήστες. Ωστόσο, ολοένα περισσότερα περιστατικά δείχνουν πως η AI συχνά οδηγεί τους ταξιδιώτες σε προορισμούς που δεν υπάρχουν ή προσφέρει ανακριβείς πληροφορίες, θέτοντας σε κίνδυνο την ταξιδιωτική εμπειρία.

Όταν η ΑΙ γίνεται επικίνδυνος ταξιδιωτικός πράκτορας

Ο Miguel Angel Gongora Meza, ιδρυτής της Evolution Treks Peru, περιέγραψε μια περίπτωση όπου δύο τουρίστες σχεδίαζαν πεζοπορία στο «Ιερό Φαράγγι του Humantay», έναν φανταστικό προορισμό που δημιουργήθηκε από το ChatGPT. Οι τουρίστες ξόδεψαν περίπου 160 δολάρια για να φτάσουν σε μια απομονωμένη αγροτική περιοχή χωρίς σαφείς οδηγίες ή καθοδήγηση, αντιμετωπίζοντας κινδύνους λόγω των απαιτητικών συνθηκών των Άνδεων.

Επιπλέον, ο Gongora Meza επέμεινε ότι αυτό το φαινομενικά αθώο λάθος θα μπορούσε να είχε κοστίσει τη ζωή σε αυτούς τους ταξιδιώτες. «Αυτού του είδους η παραπληροφόρηση είναι επικίνδυνη στο Περού», εξήγησε. «Το υψόμετρο, οι κλιματικές αλλαγές και η προσβασιμότητα [των] μονοπατιών πρέπει να σχεδιάζονται. Όταν [χρησιμοποιείτε] ένα πρόγραμμα [όπως το ChatGPT], το οποίο συνδυάζει εικόνες και ονόματα για να δημιουργήσει μια φαντασίωση, τότε μπορείτε να βρεθείτε σε υψόμετρο 4.000 μέτρων χωρίς οξυγόνο και σήμα [τηλεφώνου]».

Παρόμοια περιστατικά έχουν σημειωθεί και σε άλλες περιοχές, όπως στην Ιαπωνία, όπου η Dana Yao και ο σύζυγός της βρέθηκαν κολλημένοι στην κορυφή του όρους Misen, επειδή το ChatGPT τους έδωσε λανθασμένες πληροφορίες για τις ώρες λειτουργίας του τελεφερίκ. Μία έρευνα του 2024 αποκάλυψε ότι το 33% των χρηστών που συμβουλεύτηκαν AI για ταξιδιωτικές πληροφορίες έλαβαν ανακριβή δεδομένα, ενώ το 37% διαπίστωσε έλαβε πληροφορίες.

Πώς δημιουργούνται τα λάθη

Σύμφωνα με τον καθηγητή μηχανικής μάθησης Rayid Ghani από το Carnegie Mellon University, τα μεγάλα γλωσσικά μοντέλα όπως το ChatGPT παράγουν απαντήσεις βασιζόμενα σε στατιστικές συσχετίσεις λέξεων, χωρίς αληθινή κατανόηση των δεδομένων. «Δεν καταλαβαίνει τη διαφορά μεταξύ ταξιδιωτικών συμβουλών, οδηγιών ή συνταγών. Απλώς ξέρει λέξεις. Έτσι, συνεχίζει να λέει λέξεις που κάνουν αυτό που σας λεει να ακούγεται ρεαλιστικό, και από εκεί προέρχονται πολλά από τα υποκείμενα ζητήματα».

Αυτό οδηγεί σε φαινόμενα «ψευδαισθήσεων» (hallucinations), όπου παρουσιάζονται πειστικές αλλά ψευδείς πληροφορίες. Στην περίπτωση του «Ιερού Φαραγγιού του Humantay», το σύστημα πιθανώς συνδύασε όρους σχετικούς με την περιοχή, δημιουργώντας έναν φανταστικό προορισμό.

Ανάγκη για τη θέσπιση κανόνων

Η παραπληροφόρηση δεν περιορίζεται μόνο στα κείμενα: πρόσφατα βίντεο που προβάλλουν τεχνητά κατασκευασμένες τοποθεσίες, όπως ένα τελεφερίκ στη Μαλαισία, έχουν δημιουργηθεί εξ ολοκλήρου από AI, προκαλώντας σύγχυση στους ταξιδιώτες. Η επεξεργασία βίντεο και εικόνων με AI από πλατφόρμες όπως το YouTube και το Netflix δείχνει πως η τεχνολογία μπορεί να διαστρεβλώσει την πραγματικότητα, επηρεάζοντας και την ταξιδιωτική εμπειρία.

Η ΕΕ και οι ΗΠΑ εργάζονται για τη θέσπιση κανόνων που θα υποδεικνύουν πότε το περιεχόμενο έχει δημιουργηθεί ή τροποποιηθεί από AI, μέσω υδατογραφημάτων ή άλλων σημάνσεων. Ωστόσο, όπως επισημαίνει ο Ghani, η πρόληψη είναι δύσκολη και προς το παρόν προτείνεται η ενημέρωση και η κριτική σκέψη των χρηστών ως πιο αποτελεσματική λύση.

Οι ειδικοί συμβουλεύουν τους ταξιδιώτες να διατυπώνουν συγκεκριμένες ερωτήσεις και να επαληθεύουν όλες τις πληροφορίες που λαμβάνουν από τεχνητή νοημοσύνη, παρά το γεγονός ότι αυτό μπορεί να απαιτεί περισσότερο χρόνο κατά την προετοιμασία. Ο ψυχοθεραπευτής Javier Labourt υπογραμμίζει ότι το ταξίδι παραμένει μια σημαντική ευκαιρία πολιτισμικής ανταλλαγής και προσωπικής ανάπτυξης, αλλά οι ψευδείς πληροφορίες μέσω AI μπορούν να υπονομεύσουν αυτή την εμπειρία πριν καν ξεκινήσει.

Το Netflix τέλος αντιμετώπισε επίσης δύσκολες καταστάσεις, επιστρατεύοντας την ΑΙ στις αρχές του 2025, μετά από προσπάθειες «αναδιαμόρφωσης» παλιών κωμικών σειρών που άφησαν σουρεαλιστικές παραμορφώσεις στα πρόσωπα αγαπημένων τηλεοπτικών αστέρων της δεκαετίας του 1980 και του 1990. Καθώς η τεχνητή νοημοσύνη χρησιμοποιείται ολοένα και περισσότερο για να κάνει τέτοιου είδους μικρές αλλαγές εν αγνοία μας, τα όρια μεταξύ της πραγματικότητας και ενός ονειρικού κόσμου τεχνητής νοημοσύνης μπορεί να αρχίζουν να θολώνουν και για τους ταξιδιώτες.

Διαβάστε επίσης