Τελευταία προειδοποίηση από τους ειδικούς για την Τεχνητή Νοημοσύνη: «Βάλτε κανόνες σήμερα»
Η ψηφιακή επανάσταση με την τεχνητή νοημοσύνη προχωρά ραγδαία και ο πλήρης μετασχηματισμός των κοινωνιών μας -σε όλα τα επίπεδα- συμβαίνει ήδη και είναι θέμα μηνών ή λίγων ετών οι εφαρμογές της να μας επηρεάσουν όλους. Ωστόσο, όπως είναι ήδη αντιληπτό, αν δεν γίνει αυτό υπό τον έλεγχο συγκεκριμένων και αυστηρών κανόνων, τότε η ανθρωπότητα κινδυνεύει να κυριευθεί από… τον αλγόριθμο και τα ρομπότ. Για αυτό, όσα αποφασίζουμε σήμερα, θα καθορίσουν όλο το μέλλον μας, όπως προειδοποιούν ειδικοί.
Ένας από αυτούς, είναι ο Δρ. Peter G. Kirchschläger, καθηγητής Ηθικής στο Πανεπιστήμιο της Λουκέρνης και επίτιμος στο Πανεπιστήμιο της Ζυρίχης, ο οποίος βρέθηκε στην Αθήνα για να συμμετάσχει στο Athens Democracy Forum, το οποίο επέστρεψε από 30 Σεπτεμβρίου έως 3 Οκτωβρίου 2025 , με τίτλο «New Visions for Hard Realities» και συγκεκριμένα στο debate «Η αριστοτελική ηθική ως πλαίσιο για τις προκλήσεις της Τεχνητής Νοημοσύνης».
Το Newsbomb είχε την ευκαιρία να συνομιλήσει μαζί του, αλλά και να του δώσει την ευκαιρία να απευθύνει αυτή τη, «δραματική», θα πούμε εμείς, προειδοποίηση: Εάν δεν θεσπιστούν ισχυροί διεθνείς κανόνες για την προστασία των ανθρώπινων δικαιωμάτων και του πλανήτη, τότε η θεώρηση του Έλον Μασκ, ότι η τεχνητή νοημοσύνη μπορεί να γίνει πολύ πιο επικίνδυνη από τα πυρηνικά όπλα, εάν δεν υπάρξει σαφής ρυθμιστικός έλεγχος, δεν θα είναι καθόλου υπερβολική…
Ο ίδιος προτείνει την ίδρυση ενός Διεθνούς Οργανισμού Συστημάτων Βάσει Δεδομένων στον ΟΗΕ, που θα ελέγχει και θα ρυθμίζει τις εφαρμογές των τεχνολογιών αυτών.
Η λύση όμως δεν είναι μόνο αυτή, που μπορεί να επέλθει σε επόμενο στάδιο ως κατασταλτικό μέτρο – θα πρέπει η ηθική των μηχανών να καθορίζεται αποκλειστικά από τους ανθρώπους, «καθώς οι μηχανές δεν έχουν αυτονομία και συνείδηση».
Λύση, θα ήταν για τον καθηγητή και η ενθάρρυνση της νέας γενιάς να καλλιεργεί τις ανθρώπινες δεξιότητες που δεν μπορούν να αντικατασταθούν από τις μηχανές.
«Η ηθική απόφαση πρέπει να ανήκει πάντα στους ανθρώπους, καθώς κανένας αλγόριθμος δεν μπορεί να καλύψει την ηθική πολυπλοκότητα και ευαισθησία των συγκεκριμένων περιστατικών. Όλοι πρέπει να καλλιεργούμε τις μοναδικές ανθρώπινες ικανότητες που ξεχωρίζουν από τις μηχανές, όπως την κριτική σκέψη, τη φιλοσοφία, την ενσυναίσθηση, τη δημιουργικότητα και την ικανότητα διαχείρισης του άγνωστου», μας λέει χαρακτηριστικά, καλώντας στην ανάληψη δράσης τώρα, πριν να είναι αργά…

Newsbomb: Η ολιστική ψηφιακή -και όχι μόνο- μεταρρύθμιση με την ευρεία εφαρμογή της τεχνητής νοημοσύνης είναι μια πραγματικότητα. Συμβαίνουν τα πράγματα όπως τα είχατε προβλέψει; Πού έχουμε πετύχει και τι σας ανησυχεί;
Peter G. Kirchschläger: Από ηθική σκοπιά, είχα προβλέψει ότι αν δεν λάβουμε ουσιαστικά και ηθικά μέτρα εναντίον τους, τότε οι πολυεθνικές τεχνολογικές εταιρείες θα κάνουν τα πάντα για να μετατοπίσουν τα κανονιστικά όρια που δημιουργήθηκαν αιώνες για την προστασία της ανθρωπότητας και του πλανήτη, όπως τα ανθρώπινα δικαιώματα για την προστασία δεδομένων και την ιδιωτικότητα, τα πνευματικά δικαιώματα. Αυτό καθιστά ακόμη πιο επείγον σήμερα να δράσουμε επιτέλους με την υλοποίηση ενός συστήματος βασισμένου στα ανθρώπινα δικαιώματα για τα δεδομένα (HRBDS). Το HRBDS σημαίνει πως ολόκληρος ο κύκλος ζωής του συστήματος βασισμένου στα δεδομένα (DS), που είναι πιο ακριβής όρος για την λεγόμενη "AI", πρέπει να σέβεται τα ανθρώπινα δικαιώματα!
Για την προώθηση του HRBDS, πρέπει να ιδρυθεί στον ΟΗΕ ένας Διεθνής Οργανισμός Συστημάτων Βάσει Δεδομένων (IDA), ο οποίος θα εφαρμόζει και θα επιβάλλει παγκόσμιους κανονισμούς βασισμένους στα ανθρώπινα δικαιώματα για αυτά τα συστήματα. Ο IDA θα πρέπει να ακολουθήσει το παράδειγμα του Διεθνούς Οργανισμού Ατομικής Ενέργειας (IAEA) – τον μοναδικό οργανισμό του ΟΗΕ με τη δυνατότητα να επιβάλλει και να τιμωρεί διεθνείς κανονισμούς σε τεχνολογίες.
Ο IDA στον ΟΗΕ πρέπει να εκπληρώνει τρεις βασικές λειτουργίες:
1) Να παρέχει πρόσβαση σε διαδικασία έγκρισης στην αγορά, όπως σε άλλες βιομηχανίες (π.χ. φαρμακευτική), ώστε να αποφεύγεται η βλάβη σε ανθρώπους και περιβάλλον
2) Να παρακολουθεί να μην παραβιάζονται ανθρώπινα δικαιώματα με τα DS
3) Να ενθαρρύνει τη διεθνή τεχνική συνεργασία στο χώρο των DS ώστε η ανθρωπότητα να αξιοποιεί καλύτερα και γρηγορότερα τις θετικές δυνατότητες των DS.
Υπάρχει διεθνές δίκτυο ειδικών που ζητούν την ίδρυση του HRBDS και του IDA, το οποίο υποστηρίζουν σημαντικές προσωπικότητες όπως οι Elders (μια ανεξάρτητη ομάδα παγκόσμιων ηγετών), ο Πάπας Φραγκίσκος, ο Δαλάι Λάμα και ο Γενικός Γραμματέας του ΟΗΕ Αντόνιο Γκουτέρες, καθώς και ηγετικά στελέχη τεχνολογικών εταιρειών όπως ο Sam Altman της OpenAI.
Για να πάμε ένα βήμα πριν τους ρυθμιστικούς κανόνες… Η τεχνητή νοημοσύνη αντικατοπτρίζει την ηθική του δημιουργού της; Υπάρχει κίνδυνος να γίνει αυτόνομη και να αναπτύξει δική της «ηθική»; Ή να μην έχει και… καθόλου ηθική στην προσπάθεια επίτευξης του στόχου της;
Οι άνθρωποι έχουν αποκλειστική ευθύνη για τις μηχανές καθώς τα DS δεν μπορούν να δράσουν ως υποκείμενα ηθικής λόγω της έλλειψης αυτονομίας. Η αυτονομία περιλαμβάνει την ικανότητα αναγνώρισης και θέσπισης ηθικών κανόνων και τη δράση βάσει αυτών. Οι μηχανές όμως ακολουθούν πρότυπα και κανόνες που δίνονται από ανθρώπους. Μπορούν να θέτουν π.χ. κανόνες για αύξηση αποδοτικότητας, αλλά αυτοί οι κανόνες δεν έχουν κάποια ηθική δέσμευση.
Για παράδειγμα, ένα αυτόνομο αυτοκίνητο θα μπορούσε να θέσει κανόνες για γρήγορη μετακίνηση από το Α στο Β, ακόμα και αν αυτό βλάπτει ανθρώπους ή το περιβάλλον, χωρίς να μπορεί να αναγνωρίσει την ηθική διάσταση αυτού. Αντίθετα, ένας άνθρωπος μπορεί να κατανοήσει ότι η βλάβη σε ανθρώπους ή τη φύση είναι παράνομη ή μη ηθική. Οι μηχανές στερούνται αυτή την ικανότητα.
Επιπλέον, τα DS δεν διαθέτουν ευαλωτότητα, συνείδηση, ελευθερία και ευθύνη, που είναι θεμελιώδεις αρχές για την ανθρώπινη ηθική. Άρα, οι ηθικές και νομικές αρχές για τα DS πρέπει να καθορίζονται από τους ανθρώπους.
Η ηθική ευθύνη περιλαμβάνει επίσης την ευθύνη σχεδίασης: η ανάπτυξη, παραγωγή και χρήση των DS καθορίζεται από τους ανθρώπους, οι οποίοι οφείλουν να διασφαλίζουν ότι οι εφαρμογές εξυπηρετούν την ανθρωπότητα και τον πλανήτη, και να αξιοποιούν τις δυνατότητες των DS σε τομείς όπου ξεπερνούν μαζικά τον άνθρωπο, όπως η διαχείριση μεγάλου όγκου δεδομένων και η λογική.
Θα μπορούσε παρόλα αυτά η «τεχνητή» ηθική να αυτό-καθορίζεται ήδη από τον σχεδιασμό; Και ποιοι κανόνες θα πρέπει να επιλέγονται από ένα μοντέλο AI βάσει της τρέχουσας γνώσης;
Οι κανόνες που παράγονται από DS θα επιδιώκουν την αύξηση της αποδοτικότητας, όχι την ηθική νομιμότητα, αφού η Ηθική δεν είναι προσβάσιμη σε αυτά. Πρέπει λοιπόν να εκπαιδεύσουμε τα DS με ηθικές και νομικές αρχές ώστε να τις τηρούν, παρόλο που δεν διαθέτουν ηθική ικανότητα.
Για παράδειγμα, αν ζητήσουμε από DS να σταματήσει την κλιματική αλλαγή, θα μπορούσε να προτείνει ως μέτρο την ηθικά απαράδεκτη μείωση του ανθρώπινου πληθυσμού κατά το ήμισυ για δραστική μείωση των εκπομπών CO2, χωρίς να κατανοεί τι συνεπάγεται αυτή η πρόταση. Επομένως, η ηθική απόφαση πρέπει να ανήκει πάντα στους ανθρώπους, καθώς κανείς αλγόριθμος δεν μπορεί να καλύψει την ηθική πολυπλοκότητα και ευαισθησία των συγκεκριμένων περιστατικών.
Όσον αφορά στο πάνελ στο οποίο θα συμμετέχετε. Συμφωνείτε με τον όρο «Αριστοτελική ηθική» που χρησιμοποιήθηκε; Μήπως περιορίζει την ηθική της ανθρωπότητας και πρέπει να συμπεριληφθούν και άλλες φιλοσοφικές σχολές, ιδίως σε σχέση με την τεχνητή νοημοσύνη;
Η δύναμη της «Αριστοτελικής ηθικής» έγκειται στην πρακτική της προσέγγιση και τη συγκειμενικότητα. Ωστόσο, δεν πρέπει να περιοριστούμε μόνο σε αυτή. Προτείνω την ηθική των ανθρωπίνων δικαιωμάτων ως βασικό πλαίσιο για τα DS.
Τα ανθρώπινα δικαιώματα αποτελούν το ελάχιστο ηθικό πλαίσιο που εγγυάται την επιβίωση και ζωή με αξιοπρέπεια όλων των ανθρώπων. Δεν επιβαρύνουν υπερβολικά την τεχνολογική πρόοδο και παρέχουν ηθική νομιμότητα και καθολικότητα, βασισμένη στην έννοια της ευαλωτότητας, κάτι που τα καθιστά παγκοσμίως αποδεκτά. Επιπλέον, προστατεύουν την ελευθερία σκέψης, έκφρασης, και προωθούν τη διαφορετικότητα και την καινοτομία.
Ποιες είναι λοιπόν οι βασικές Αριστοτελικές αρχές που πρέπει να εφαρμοστούν;
Οι Αριστοτελικές αρχές πρέπει να εφαρμόζονται στην προσπάθεια για "ηθική με σχέδιο" (ethics by design). Από αυτές, η δικαιοσύνη πρέπει να εκπαιδευτεί στα DS, ενώ η αρχή της επιείκειας πρέπει να διαμορφώνει την ανθρώπινη ευθύνη στην ηθική, λαμβάνοντας υπόψη την ευαισθησία στην μοναδικότητα των συγκεκριμένων περιπτώσεων όταν οι κανόνες φτάνουν στα όριά τους.
Και ποιος μπορεί να επιβάλει παγκοσμίως τους κανόνες που προτείνετε; Είναι εφικτό; Ήδη βλέπουμε την εμφάνιση της "Σκοτεινής ΤΝ" που χρησιμοποιείται για εγκληματικές δραστηριότητες...
Το Συμβούλιο Ανθρωπίνων Δικαιωμάτων του ΟΗΕ υιοθέτησε ομόφωνα το 2023 τη "Νέα ανάπτυξη ψηφιακών τεχνολογιών και ανθρώπινα δικαιώματα". Το 2024 η Γενική Συνέλευση του ΟΗΕ υιοθέτησε τις εκθέσεις για την αξιοποίηση της ασφαλούς και αξιόπιστης τεχνητής νοημοσύνης για τη βιώσιμη ανάπτυξη και το "Παγκόσμιο Ψηφιακό Συμφωνητικό". Τώρα είναι επείγον να θεσπιστεί ο Διεθνής Οργανισμός Συστημάτων Βάσει Δεδομένων (IDA) στον ΟΗΕ ως παγκόσμια πλατφόρμα τεχνικής συνεργασίας, επιτήρησης και κανονιστικής αρχής, υπεύθυνος για την έγκριση στην αγορά και την προαγωγή ανθρωπίνων δικαιωμάτων, ασφάλειας και βιωσιμότητας στα DS.
Ποια συμβουλή δίνετε σε προγραμματιστές, πολιτικούς και πολίτες για την ορθή εφαρμογή της τεχνητής νοημοσύνης; Ιδιαίτερα στη νέα γενιά που κινδυνεύει να χάσει τις δικές της δεξιότητες καθώς τα πάντα είναι έτοιμα;
Πρώτον, η ηθική πρέπει να ενσωματωθεί από την αρχή κάθε έρευνας και καινοτομίας, καθώς η τεχνολογία είναι ανθρώπινη δημιουργία που αλληλοεπηρεάζεται με την ηθική. Η ηθική διαμορφώνει την τεχνολογική πρόοδο δίνοντας νόημα και κατευθύνσεις.
Δεύτερον, όλοι πρέπει να καλλιεργούμε τις μοναδικές ανθρώπινες ικανότητες που ξεχωρίζουν από τις μηχανές, όπως την κριτική σκέψη, τη φιλοσοφία, την ενσυναίσθηση, τη δημιουργικότητα και την ικανότητα διαχείρισης του άγνωστου.
Τρίτον, να μην βασιζόμαστε στην "γενετική AI" (π.χ. ChatGPT), η οποία δεν εγγυάται ακρίβεια, αμεροληψία ή σεβασμό πνευματικών δικαιωμάτων, και τείνει να χειραγωγεί ανθρώπους πολιτικά και οικονομικά. Αντίθετα, να σκεφτόμαστε και να δημιουργούμε οι ίδιοι.
Εάν υποθέσουμε το δυστοπικό σενάριο όπου η AI ξεφεύγει από τον έλεγχό μας... Μπορούν ταινίες όπως το «Matrix» ή το «Terminator» να λειτουργήσουν ως προειδοποιήσεις; Υπάρχουν προστατευτικά μέτρα, όπως το να «πατήσει κάποιος το κουμπί και να κόψει το ρεύμα»;
Αυτή τη στιγμή τέτοια μέτρα δεν υπάρχουν, αλλά χρειάζονται οπωσδήποτε. Ο Elon Musk έχει προειδοποιήσει ότι η AI είναι πολύ πιο επικίνδυνη από τα πυρηνικά όπλα, και είναι τρέλα που δεν έχουμε ρυθμιστικό έλεγχο.
Για να εξασφαλίσουμε ένα μέλλον για την ανθρωπότητα και τον πλανήτη όπου τα ανθρώπινα δικαιώματα γίνονται σεβαστά τόσο στον πραγματικό κόσμο όσο και στο διαδίκτυο, πρέπει να προωθήσουμε το HRBDS και να ιδρύσουμε τον IDA στον ΟΗΕ.
Για παράδειγμα, το 2025 είναι ακόμη δυνατό να κυκλοφορήσει στο εμπόριο μια εφαρμογή που σεξουαλικοποιεί εικόνες παιδιών και να βγάζει πολλά χρήματα δίχως να τιμωρείται. Με τα κοινωνικά δίκτυα μπορεί να αποσταθεροποιηθεί μια χώρα μέσα σε λίγες ώρες. Με το Generative AI μπορεί να καταστραφεί η φήμη πολιτικών με deep fake εικόνες. Η κατανάλωση ενέργειας και νερού από τα DS εκτοξεύεται και το ψηφιακό χάσμα μεγαλώνει.
Πρέπει να δράσουμε άμεσα.