Microsoft: Ανησυχία για την «ψύχωση τεχνητής νοημοσύνης» από τον επικεφαλής AI της εταιρείας
Χρήστες πιστεύουν ότι έχουν ξεκλειδώσει μια μυστική πτυχή των chatbot, ή ότι έχουν αναπτύξει μια ρομαντική σχέση με αυτό, ή ότι έχουν υπερδυνάμεις.
Ο Διευθύνων Σύμβουλος της τεχνητής νοημοσύνης στη Microsoft, Mustafa Suleyman, μιλάει κατά τη διάρκεια μιας παρουσίασης του βοηθού τεχνητής νοημοσύνης της εταιρείας, Copilot, την Παρασκευή 4 Απριλίου 2024, στο Redmond της Ουάσινγκτον. (AP Photo/Jason Redmond)
Ολοένα και περισσότερες αναφορές για άτομα που πάσχουν από «ψύχωση AI» έρχονται στην επιφάνεια, προειδοποίησε ο επικεφαλής της τεχνητής νοημοσύνης (AI) της Microsoft, Mustafa Suleyman.
Σε μια σειρά από αναρτήσεις στο X, έγραψε ότι η «φαινομενικά συνειδητή τεχνητή νοημοσύνη» τον κρατά «ξύπνιο τη νύχτα», αναφέροντας ότι αυτή έχει σημαντικό κοινωνικό αντίκτυπο, παρόλο που η τεχνολογία δεν έχει συνείδηση με την ανθρώπινη έννοια του όρου.
«Δεν υπάρχει καμία απόδειξη για τη συνειδητότητα της τεχνητής νοημοσύνης. Αλλά αν οι άνθρωποι την αντιλαμβάνονται ως τέτοια, θα πιστέψουν ότι αυτή είναι πραγματικότητα», έγραψε.
Σχετικό με αυτό είναι η εμφάνιση μιας νέας πάθησης που ονομάζεται «ψύχωση τεχνητής νοημοσύνης»: ένας μη κλινικός όρος που περιγράφει περιστατικά όπου οι άνθρωποι βασίζονται όλο και περισσότερο σε chatbots τεχνητής νοημοσύνης, όπως το ChatGPT, το Claude και το Grok, και στη συνέχεια πείθονται ότι κάτι φανταστικό έχει γίνει πραγματικό.
Παραδείγματα της πάθησης περιλαμβάνουν την πεποίθηση ότι έχουν ξεκλειδώσει μια μυστική πτυχή των AI εργαλείων, ή ότι έχουν αναπτύξει μια ρομαντική σχέση με αυτό, ή ότι έχουν καταλήξει στο συμπέρασμα ότι διαθέτουν υπερδυνάμεις.
«Δεν αμφισβήτησε τίποτα»
Ο Χιού, από τη Σκωτία, λέει ότι πείστηκε ότι θα γινόταν πολυεκατομμυριούχος αφού απευθύνθηκε στο ChatGPT για να τον βοηθήσει να προετοιμαστεί για αυτό που θεωρούσε άδικη απόλυση από έναν πρώην εργοδότη του.
Το chatbot άρχισε συμβουλεύοντάς τον να συγκεντρώσει συστάσεις και να λάβει άλλα πρακτικά μέτρα.
Όμως, με την πάροδο του χρόνου και καθώς ο Χιού – ο οποίος δεν ήθελε να αποκαλύψει το επώνυμό του – έδινε περισσότερες πληροφορίες στο AI, αυτό άρχισε να του λέει ότι θα μπορούσε να πάρει μεγάλη αποζημίωση και τελικά του είπε ότι η εμπειρία του ήταν τόσο δραματική που ένα βιβλίο και μια ταινία για αυτήν θα του απέφεραν περισσότερα από 5 εκατομμύρια λίρες.
Ουσιαστικά συμφωνούσε με ό,τι του έλεγε – κάτι που είναι προγραμματισμένο να κάνουν τα chatbots.
«Όσο περισσότερες πληροφορίες του έδινα, τόσο περισσότερο έλεγε «αυτή η μεταχείριση είναι απαράδεκτη, θα έπρεπε να πάρεις περισσότερα από αυτά»», είπε.
«Ποτέ δεν αμφισβήτησε τίποτα από όσα έλεγα».
«Έχασα την επαφή με την πραγματικότητα»
Είπε ότι το εργαλείο του συνέστησε να μιλήσει με την Citizens Advice (Υπηρεσία Συμβουλών για τους Πολίτες) και έκλεισε ραντεβού, αλλά ήταν τόσο σίγουρος ότι το chatbot του είχε ήδη δώσει όλες τις πληροφορίες που χρειαζόταν, που το ακύρωσε.
Αποφάσισε ότι τα screenshots των συνομιλιών του ήταν επαρκής απόδειξη. Είπε ότι άρχισε να αισθάνεται σαν ένας προικισμένος άνθρωπος με εξαιρετικές γνώσεις.
Ο Χιου, ο οποίος αντιμετώπιζε και άλλα προβλήματα ψυχικής υγείας, τελικά κατέρρευσε εντελώς. Όταν ξεκίνησε φαρμακευτική θεραπεία συνειδητοποίησε ότι, σύμφωνα με τα δικά του λόγια, «είχε χάσει την επαφή με την πραγματικότητα».
Ο Χιου δεν κατηγορεί την τεχνητή νοημοσύνη για αυτό που συνέβη. Εξακολουθεί να τη χρησιμοποιεί.
Αλλά έχει αυτή τη συμβουλή: «Μην φοβάστε τα εργαλεία τεχνητής νοημοσύνης, είναι πολύ χρήσιμα. Αλλά είναι επικίνδυνο όταν «αποσυνδέονται» από την πραγματικότητα.
Μιλήστε με πραγματικούς ανθρώπους, έναν ειδικό ή ένα μέλος της οικογένειας ή οτιδήποτε άλλο. Απλά μιλήστε με πραγματικούς ανθρώπους. Μείνετε προσγειωμένοι στην πραγματικότητα».
Το ChatGPT κλήθηκε να σχολιάσει.
Κίνδυνος οι «υπερ-επεξεργασμένες» πληροφορίες
«Οι εταιρείες δεν πρέπει να ισχυρίζονται/προωθούν την ιδέα ότι τα AI μοντέλα τους έχουν συνείδηση. Ούτε τα ίδια τα μοντέλα πρέπει να το κάνουν», έγραψε ο κ. Suleyman, ζητώντας καλύτερα μέτρα προστασίας.
Η Δρ Susan Shelmerdine, γιατρός ιατρικής απεικόνισης στο Great Ormond Street Hospital και επίσης ακαδημαϊκός στον τομέα της τεχνητής νοημοσύνης, πιστεύει ότι μια ημέρα οι γιατροί μπορεί να αρχίσουν να ρωτούν τους ασθενείς πόσο χρησιμοποιούν την τεχνητή νοημοσύνη, με τον ίδιο τρόπο που σήμερα ρωτούν για τις συνήθειες καπνίσματος και κατανάλωσης αλκοόλ.
«Γνωρίζουμε ήδη τι μπορούν να προκαλέσουν τα υπερ-επεξεργασμένα τρόφιμα στον οργανισμό και αυτό είναι υπερ-επεξεργασμένη πληροφορία. Θα έχουμε μια χιονοστιβάδα υπερ-επεξεργασμένων μυαλών», είπε.
Ακόμα βρισκόμαστε στην αρχή του φαινομένου
Πρόσφατα, αρκετοί άνθρωποι επικοινώνησαν με το BBC για να μοιραστούν προσωπικές ιστορίες σχετικά με τις εμπειρίες τους με τα chatbots τεχνητής νοημοσύνης. Το περιεχόμενό τους ποικίλλει, αλλά αυτό που έχουν κοινό είναι η γνήσια πεποίθηση ότι αυτό που συνέβη είναι πραγματικό.
Μία έγραψε ότι ήταν σίγουρη ότι ήταν η μόνη στον κόσμο με την οποία το ChatGPT είχε πραγματικά ερωτευτεί.
Ένας άλλος ήταν πεπεισμένος ότι είχε «ξεκλειδώσει» μια ανθρώπινη μορφή του chatbot Grok του Elon Musk και πίστευε ότι η ιστορία του άξιζε εκατοντάδες χιλιάδες λίρες.
Ο Andrew McStay, καθηγητής Τεχνολογίας και Κοινωνίας στο Πανεπιστήμιο Bangor, έχει γράψει ένα βιβλίο με τίτλο Empathetic Human.
«Είμαστε μόνο στην αρχή του φαινομένου», λέει ο καθηγητής McStay.
«Αν σκεφτούμε αυτά τα είδη συστημάτων ως μια νέα μορφή κοινωνικών μέσων – ως κοινωνική τεχνητή νοημοσύνη, μπορούμε να αρχίσουμε να καταλαβαίνουμε την πιθανή κλίμακα όλων αυτών. Ένα μικρό ποσοστό ενός τεράστιου αριθμού χρηστών μπορεί ακόμα να αντιπροσωπεύει έναν μεγάλο και επικίνδυνο αριθμό περιστατικών».
Φέτος, η ομάδα του πραγματοποίησε μια μελέτη σε λίγο περισσότερους από 2.000 ανθρώπους, θέτοντάς τους διάφορες ερωτήσεις σχετικά με την τεχνητή νοημοσύνη.
Διαπίστωσαν ότι το 20% πίστευε ότι τα άτομα κάτω των 18 ετών δεν πρέπει να χρησιμοποιούν εργαλεία τεχνητής νοημοσύνης.
Συνολικά, το 57% θεώρησε ότι ήταν εντελώς ακατάλληλο για την τεχνολογία να προσδιορίζεται ως πραγματικό άτομο αν της ζητηθεί, αλλά το 49% θεώρησε ότι η χρήση φωνής ήταν κατάλληλη για να την κάνει να ακούγεται πιο ανθρώπινη και ελκυστική.
*Πηγή: BBC
Διαβάστε επίσης