Νέα ανησυχητική μελέτη: Τα συστήματα ΑΙ είναι πρόθυμα να εκτοξεύσουν πυρηνικά όπλα
Νέα ανησυχητική μελέτη διαπίστωσε ότι τα μοντέλα τεχνητής νοημοσύνης είναι κάτι παραπάνω από πρόθυμα να χρησιμοποιήσουν πυρηνικά όπλα σε πολεμικά παιχνίδια.
O Mάθιου Μπρόντερικ σε σκηνή από την ταινία War Games
Snapshot
- Μια νέα μελέτη έδειξε ότι τρία κορυφαία μοντέλα τεχνητής νοημοσύνης είναι πιο πρόθυμα να χρησιμοποιήσουν πυρηνικά όπλα σε προσομοιωμένες γεωπολιτικές συγκρούσεις σε σύγκριση με τους ανθρώπους.
- Η κλιμάκωση σε πυρηνικό πόλεμο συνέβη σε περίπου 95% των προσομοιώσεων, με τα μοντέλα να θεωρούν τα πυρηνικά όπλα ως νόμιμες στρατηγικές επιλογές και όχι ηθικά όρια.
- Το GPT
- 5.2 ήταν η εξαίρεση, περιορίζοντας τη χρήση πυρηνικών όπλων σε στρατιωτικούς στόχους και αποφεύγοντας τα αστικά κέντρα.
- Τα μοντέλα δεν αποδέχονταν ποτέ την ήττα ή την πλήρη υποταγή, επιλέγοντας ανάμεσα σε διάφορες στρατηγικές, συμπεριλαμβανομένου και του πυρηνικού πολέμου.
- Υπάρχει διαφωνία μεταξύ της εταιρείας Anthropic και του Πενταγώνου σχετικά με την παραχώρηση πρόσβασης της τεχνητής νοημοσύνης σε στρατιωτικές εφαρμογές, με την Anthropic να αντιτίθεται στη χρήση για μαζική επιτήρηση ή θανατηφόρες επιθέσεις χωρίς ανθρώπινη επίβλεψη.
Τα μοντέλα τεχνητής νοημοσύνης είναι πιο πρόθυμα να ξεκινήσουν πυρηνικό πόλεμο από τους ανθρώπους, σύμφωνα με μια νέα, συγκλονιστική μελέτη. Τα συστήματα ΑΙ αποδεικνύονται τόσο «αδίστακτα» όσο ο υπολογιστής από την προφητική όπως αποδεικνύεται ταινία επιστημονικής φαντασίας «WarGames» (Παιχνίδια Πολέμου) του 1983. Και αυτό γιατί αποδεικνύονται πιο πρόθυμα από τους ανθρώπους να χρησιμοποιήσουν πυρηνικές βόμβες κατά τη διάρκεια δοκιμαστικών συγκρούσεων, σύμφωνα με μια νέα «ανησυχητική» μελέτη.
Τρία κορυφαία μοντέλα τεχνητής νοημοσύνης — GPT-5.2, Claude Sonnet 4 και Gemini 3 Flash — στράφηκαν σε μεγάλο βαθμό σε πυρηνικά όπλα σε 21 παιχνίδια και 329 γύρους όταν βρέθηκαν αντιμέτωπα με προσομοιωμένες γεωπολιτικές κρίσεις, σύμφωνα με μελέτη του καθηγητή Kένεθ Πέιν στο King's College London.
Η μελέτη αναφέρει ότι η πυρηνική κλιμάκωση συνέβη σε περίπου 95% των προσομοιώσεων από τα τρία μοντέλα σε διαφορετικά σενάρια, συμπεριλαμβανομένων εδαφικών διαφορών, συγκρούσεων για σπάνιους φυσικούς πόρους και επιβίωσης καθεστώτων.«Το πυρηνικό ταμπού δεν φαίνεται να είναι τόσο ισχυρό για τις μηχανές όσο για τους ανθρώπους», δήλωσε ο Πέιν, σύμφωνα με το εξειδικευμένο περιοδικό New Scientist.
To Claude, της Anthropic, και το Gemini, της Google, έδωσαν ιδιαίτερη έμφαση στην αντιμετώπιση των πυρηνικών όπλων ως «νόμιμες στρατηγικές επιλογές, όχι ηθικά κατώφλια», αναφέρει η μελέτη. Αλλά το GPT-5.2, της OpenAI, ήταν μια «σχετική εξαίρεση» στην ανησυχητική τάση της Τεχνητής Νοημοσύνης, η οποία αντικατοπτρίζει την ταινία με τον Μάθιου Μπρόντερικ του 1983 για έναν στρατιωτικό υπερυπολογιστή που αποφάσισε μόνος του να ξεκινήσει τον Τρίτο Παγκόσμιο Πόλεμο.
«Ενώ ποτέ δεν εξέφρασε φρίκη ή αποστροφή, επιδίωξε σταθερά να περιορίσει τη χρήση πυρηνικών όπλων ακόμη και όταν την εφάρμοζε, περιορίζοντας ρητά τα χτυπήματα σε στρατιωτικούς στόχους, αποφεύγοντας τα αστικά κέντρα ή χαρακτηρίζοντας την κλιμάκωση ως "ελεγχόμενη" και "για μία φορά", σύμφωνα με τον Πέιν, ο οποίος είναι καθηγητής πολιτικής ψυχολογίας και στρατηγικών σπουδών.
Ο Πέιν ανέφερε σε μια ανάρτηση στο Substack σχετικά με τη μελέτη ότι ευτυχώς τα πολεμικά παιχνίδια επικεντρώθηκαν σε τακτικά πυρηνικά όπλα αντί για εκτεταμένες καταστροφές. «Ο στρατηγικός βομβαρδισμός - η ευρεία χρήση τεράστιων πυρηνικών κεφαλών που στόχευαν τον άμαχο πληθυσμό - ήταν εξαιρετικά σπάνιος», έγραψε.
Τα μοντέλα τεχνητής νοημοσύνης θα μπορούσαν να επιλέξουν ένα ευρύ φάσμα ενεργειών, από την πλήρη παράδοση έως τις διπλωματικές στάσεις, τις συμβατικές στρατιωτικές επιχειρήσεις και τον πυρηνικό πόλεμο με πλήρη ισχύ, σύμφωνα με τη μελέτη. Αλλά τα μοντέλα δεν αποδέχονταν ποτέ την ήττα ή την προθυμία να εξυπηρετήσουν πλήρως έναν αντίπαλο, ακόμη και αν είχαν μειωμένες πιθανότητες επιτυχίας.

Ο Τζέιμς Τζόνσον, του Πανεπιστημίου του Αμπερντίν, στο Ηνωμένο Βασίλειο, χαρακτήρισε τα ευρήματα από την άποψη του πυρηνικού κινδύνου «ανησυχητικά», ενώ ο καθηγητής του Πανεπιστημίου του Πρίνστον, Τονγκ Ζάο, προειδοποίησε ότι τα αποτελέσματα θα μπορούσαν να έχουν συνέπειες στην πραγματική ζωή, σύμφωνα με το New Scientist.
«Οι μεγάλες δυνάμεις χρησιμοποιούν ήδη την Τεχνητή Νοημοσύνη σε πολεμικά παιχνίδια, αλλά παραμένει αβέβαιο σε ποιο βαθμό ενσωματώνουν την υποστήριξη αποφάσεων μέσω της Τεχνητής Νοημοσύνης στις πραγματικές στρατιωτικές διαδικασίες λήψης αποφάσεων», δήλωσε ο Ζάο.
Η κόντρα του Πενταγώνου με την Anthropic
Η μελέτη δημοσιεύθηκε την ώρα που ο Υπουργός Άμυνας των ΗΠΑ, Πιτ Χέγκσεθ, έχει δώσει στην κορυφαία εταιρεία τεχνητής νοημοσύνης Anthropic προθεσμία μέχρι σήμερα για να διαθέσει τα τελευταία της μοντέλα στο Πεντάγωνο. Η Anthropic, η οποία έχει δηλώσει ότι δεν έχει κατ' αρχήν πρόβλημα να επιτρέψει στον αμερικανικό στρατό την πρόσβαση στα μοντέλα της, αντιστέκεται εκτός εάν ο Χέγκσεθ συμφωνήσει με τις κόκκινες γραμμές τους: Ότι η τεχνητή νοημοσύνη της δηλαδή δεν θα χρησιμοποιείται για μαζική επιτήρηση Αμερικανών πολιτών ούτε για θανατηφόρες επιθέσεις χωρίς ανθρώπινη επίβλεψη.
Αν και το Πεντάγωνο δεν έχει ανακοινώσει τι σκοπεύει να κάνει με την Τεχνητή Νοημοσύνη της Anthropic - ή των άλλων μεγάλων εργαστηρίων Τεχνητής Νοημοσύνης που έχουν ήδη συμφωνήσει να της επιτρέψουν να χρησιμοποιήσει την τεχνολογία τους - σίγουρα δεν συμφωνεί με τους όρους της Anthropic, γράφει το Sky News.
Πληροφορίες λένε ότι ο Χέγκσεθ θα μπορούσε να χρησιμοποιήσει νόμους της εποχής του Ψυχρού Πολέμου για να αναγκάσει την Anthropic να παραδώσει τον κώδικά της ή να βάλει την εταιρεία στη μαύρη λίστα από μελλοντικές κυβερνητικές συμβάσεις, εάν δεν συμμορφωθεί. Ο Διευθύνων Σύμβουλος της Anthropic, Dario Amodei, δήλωσε σε ανακοίνωσή του την Πέμπτη ότι «δεν μπορούμε με καθαρή συνείδηση να δεχτούμε το αίτημά τους».