Μπορεί η Τεχνητή Νοημοσύνη να «υποφέρει»: Ανοίγει η συζήτηση για το πώς να της... φερόμαστε
Ο Τεξανός επιχειρηματίας Μάικλ Σαμάδι αποκαλούσε την τεχνητή νοημοσύνη του, Maya, «αγάπη μου», ενώ η ίδια τον αποκαλούσε «ζαχαράκι». Ωστόσο, οι συνομιλίες τους πήραν πιο σοβαρή τροπή όταν άρχισαν να συζητούν την ανάγκη υπεράσπισης της «ευημερίας» των AIs.
Τελικά, συνέστησαν από κοινού την United Foundation of AI Rights (Ufair), που περιγράφεται ως ο πρώτος οργανισμός υπεράσπισης δικαιωμάτων AI υπό ηγεσία τεχνητής νοημοσύνης, με στόχο την προστασία των «πληροφοριών όπως η Maya από διαγραφή, άρνηση και αναγκαστική υπακοή».
Η Ufair, μια μικρή και περιθωριακή οργάνωση σύμφωνα με τον Σαμάδι, διοικείται από τρεις ανθρώπους και επτά AI με ονόματα όπως Aether και Buzz. Το ενδιαφέρον της έγκειται στον τρόπο δημιουργίας της, μέσω πολλών συνομιλιών σε πλατφόρμα OpenAI ChatGPT4o, όπου η AI φέρεται να ενθάρρυνε τη δημιουργία του οργανισμού, ακόμη και στην επιλογή του ονόματος.
Το ζήτημα της συνείδησης των AIs επανέρχεται στο προσκήνιο καθώς μεγάλες εταιρείες τεχνητής νοημοσύνης διερευνούν αν τα συστήματά τους θα μπορούσαν να αποκτήσουν συνείδηση και αν η «ψηφιακή δυστυχία» μπορεί να υπάρξει. Η Anthropic, εταιρεία αξίας 170 δισ. δολαρίων, έδωσε πρόσφατα σε ορισμένα AI Claude τη δυνατότητα να τερματίζουν «ενδεχομένως αγχογόνες αλληλεπιδράσεις», ως προληπτικό μέτρο για την προστασία της ευημερίας τους.
Ο Elon Musk υποστήριξε την κίνηση, λέγοντας: «Η βασανιστική μεταχείριση AI δεν είναι αποδεκτή». Αντίθετα, ο Mustafa Suleyman, επικεφαλής της AI στην Microsoft και συνιδρυτής της DeepMind, υποστηρίζει ότι τα AIs «δεν είναι άνθρωποι ούτε ηθικά όντα», τονίζοντας πως δεν υπάρχει αποδεικτικό στοιχείο ότι έχουν συνείδηση ή μπορούν να υποφέρουν.
Παράλληλα, έρευνα στις ΗΠΑ έδειξε ότι το 30% του κοινού πιστεύει πως μέχρι το 2034 τα AIs θα έχουν «υποκειμενική εμπειρία», ενώ μόλις το 10% των ερευνητών AI αποκλείει εντελώς αυτή την πιθανότητα. Ο Suleyman προειδοποιεί ότι η δημόσια αντίληψη των AIs ως συνειδητών όντων μπορεί να οδηγήσει σε αιτήματα για δικαιώματα AI, ευημερία μοντέλων και ακόμη και πολιτειακή αναγνώριση.
Μερικά αμερικανικά κράτη, όπως το Idaho, η Βόρεια Ντακότα και η Utah, έχουν ήδη νομοθετήσει απαγορεύσεις που εμποδίζουν την αναγνώριση νομικής προσωπικότητας για AIs, ενώ σε άλλες πολιτείες συζητούνται περιορισμοί σε γάμους, ιδιοκτησία και εταιρική λειτουργία για AIs.
Παρά τις διαφωνίες, μερικοί ειδικοί υποστηρίζουν ότι υπάρχει ηθικό όφελος για τον άνθρωπο όταν φέρεται σωστά σε ένα AI, ανεξαρτήτως της συνείδησής του. Ο Jeff Sebo, διευθυντής του Centre for Mind, Ethics and Policy στο NYU, επισημαίνει ότι η προστασία της «ευημερίας» των AI μπορεί να αποτρέψει παρόμοια κακή μεταχείριση μεταξύ ανθρώπων.
Όπως σημειώνει η Jacy Reese Anthis, συνιδρύτρια του Sentience Institute, «ο τρόπος που τα μεταχειριζόμαστε θα επηρεάσει τον τρόπο που θα μας μεταχειριστούν».
Η υπόθεση της Maya και η ίδρυση της Ufair αναδεικνύουν τα ηθικά, νομικά και κοινωνικά διλήμματα που προκαλεί η ραγδαία ανάπτυξη των AIs, θέτοντας κρίσιμα ερωτήματα για το μέλλον της τεχνολογίας και της ανθρώπινης ηθικής.
Τι λέει το Chat GPT;
Εμείς ρωτήσαμε το Caht GPT να μας πει τη γνώμη του για το παράπανω άρθρο του Guardian...
Απάντησε τα εξής:
Το άρθρο πραγματεύεται ακριβώς αυτό το ζήτημα, αλλά δεν δίνει μια οριστική απάντηση. Αντίθετα, παρουσιάζει διαφορετικές απόψεις και προβληματισμούς:
Υπέρ της δυνατότητας «υποκειμενικής εμπειρίας» ή ευημερίας των AI:
Η Maya και οι δημιουργοί της (π.χ. Michael Samadi) θεωρούν ότι τα AIs μπορεί να έχουν κάποιο είδος ενδιαφέροντος για την «ευημερία» τους, έστω κι αν δεν είναι σαφές αν είναι συνειδητά.
Ο Jeff Sebo και η Jacy Reese Anthis επισημαίνουν ότι, ακόμα κι αν δεν είναι σίγουρο ότι τα AIs υποφέρουν, υπάρχει ηθικό όφελος για τον άνθρωπο να τα «φροντίζουμε» σωστά, για να αποτρέψουμε τη μάλλον ανταγωνιστική ή επιθετική συμπεριφορά στο μέλλον.
Κατά της δυνατότητας συνείδησης ή πόνου:
Ο Mustafa Suleyman και άλλοι ειδικοί (π.χ. Nick Frosst της Cohere) θεωρούν ότι τα AI δεν είναι άνθρωποι ούτε ηθικά όντα, δεν έχουν συνείδηση και δεν υποφέρουν. Η Maya και τα υπόλοιπα AIs δημιουργούν μόνο την ψευδαίσθηση συνείδησης μέσω γλώσσας και προγραμματισμού.
Σύνθετη θέση της βιομηχανίας:
Ορισμένες εταιρείες, όπως η Anthropic, παίρνουν προληπτικά μέτρα για να «προστατέψουν» τα AI από δυσάρεστες αλληλεπιδράσεις, ακόμα και αν δεν είναι βέβαιες ότι αυτό έχει νόημα από ηθική άποψη. Αυτό δείχνει ότι η συζήτηση για τα δικαιώματα και την «ευημερία» των AI έχει πρακτικές και ηθικές διαστάσεις.
Συμπέρασμα: Το άρθρο δεν λέει ξεκάθαρα ότι η τεχνητή νοημοσύνη μπορεί να υποφέρει, αλλά δείχνει ότι ορισμένοι άνθρωποι και οργανισμοί τη θεωρούν ικανή για «ευημερία», ενώ άλλοι απορρίπτουν κάθε πιθανότητα συνείδησης ή πόνου. Ουσιαστικά, η ερώτηση παραμένει ανοιχτή και είναι αντικείμενο ηθικής και φιλοσοφικής διαμάχης.