Τεχνητή Νοημοσύνη: «Είναι εξίσου επικίνδυνη με τις πυρηνικές βόμβες» - Τι λέει κορυφαίος ειδικός

«Η τεχνολογία τεχνητής νοημοσύνης (ΑΙ) είναι εξίσου επικίνδυνη με τις πυρηνικές βόμβες και θα έπρεπε να ανησυχούμε πολύ γι' αυτό» προειδοποιεί κορυφαίος ειδικός του κλάδου. Οι ηγέτες της τεχνολογίας που τρέφουν φόβους για την ΑΙ αισθάνονται ήδη ανίσχυροι να την σταματήσουν
Τρόμος για τους κινδύνους της Τεχνητής Νοημοσύνης
Τρόμος για τους κινδύνους της Τεχνητής Νοημοσύνης
2'

Κορυφαίος ειδικός τεχνητής νοημοσύνης προειδοποιεί τους τεχνολογικούς γίγαντες που βρίσκονται πίσω από τα ρομπότ που θα μας «εξοντώσουν» ότι αποσπούν την προσοχή της ανθρωπότητας από τους θανάσιμους κινδύνους τους.

Ο επιστήμονας και ακτιβιστής κατά της τεχνητής δράσης Max Tegmark πρόσθεσε ότι η ανάπτυξη της τεχνολογίας είναι εξίσου ανησυχητική με τους φόβους για την κατασκευή πυρηνικής βόμβας κατά τη διάρκεια του Β 'Παγκοσμίου Πολέμου. Και λέει ότι η συζήτηση για θέματα ότι η τεχνητή νοημοσύνη λόγου χάρη προκαλεί παραβιάσεις δεδομένων χρησιμοποιείται με επιτυχία ως προπέτασμα καπνού για να κρύψει την πραγματικότητα ότι θα μπορούσε δηλαδή να εξαφανίσει την ανθρωπότητα.

«Το 1942, ο Eνρίκο Φέρμι κατασκεύασε τον πρώτο αντιδραστήρα με αυτοσυντηρούμενη πυρηνική αλυσιδωτή αντίδραση κάτω από ένα γήπεδο ποδοσφαίρου του Σικάγο. Όταν οι κορυφαίοι φυσικοί το έμαθαν αυτό, τρόμαξαν πραγματικά, γιατί κατάλαβαν ότι το μοναδικό μεγαλύτερο εμπόδιο που απέμενε για την κατασκευή μιας πυρηνικής βόμβας είχε μόλις ξεπεραστεί.

Συνειδητοποίησαν ότι ήταν μόλις λίγα χρόνια μακριά – και στην πραγματικότητα, ήταν τρία χρόνια, με τη δοκιμή Trinity το 1945. Τα μοντέλα τεχνητής νοημοσύνης που μπορούν να περάσουν το τεστ Turing (σσ: ένας δείκτης μέτρησης της ευφΐας των υπολογιστικών μηχανών) όπου κάποιος δεν μπορεί να πει στη συνομιλία ότι δεν μιλάει σε άλλον άνθρωπο είναι η ίδια προειδοποίηση για το είδος της τεχνητής νοημοσύνης που μπορεί να χάσει τον έλεγχο».

Ο Tegmark πρόσθεσε ότι οι υπεύθυνοι για την ασφάλεια της τεχνητής νοημοσύνης – οι οποίοι τώρα περιλαμβάνουν τον «νονό» της τεχνολογίας Geoffrey Hinton – έχουν δίκιο που «τρέμουν» την ανάπτυξή της. Το Ινστιτούτο Future of Life του επιστήμονα ηγήθηκε πέρυσι της έκκλησης για μια εξάμηνη παύση στην προηγμένη έρευνα τεχνητής νοημοσύνης λόγω των φόβων ότι εγκυμονεί κινδύνους, συμπεριλαμβανομένου του αφανισμού της ανθρωπότητας.

Είπε ότι οι ηγέτες τεχνολογίας που τρέμουν για την τεχνητή νοημοσύνη αισθάνονται ήδη ανίσχυροι να τη σταματήσουν. «Φυσικά η τεχνητή νοημοσύνη προκαλεί ήδη βλάβες: υπάρχει μεροληψία, βλάπτει τις περιθωριοποιημένες ομάδες – αλλά όπως είπε η ίδια η Μισέλ Ντόνελαν, Υφυπουργός Επιστήμης, Καινοτομίας και Τεχνολογίας του Ηνωμένου Βασιλείου δεν είναι ότι δεν μπορούμε να αντιμετωπίσουμε και τα δύο. Είναι λίγο σαν να λέμε, ας μην δώσουμε καμία σημασία στην κλιματική αλλαγή γιατί θα έχουμε τυφώνα φέτος.

Είπε για τους ηγέτες της τεχνολογίας: «Νομίζω ότι όλοι νιώθουν ότι, ακόμα κι αν θέλουν να το σταματήσουν όλο αυτό, δεν μπορούν....ο μόνος τρόπος για να αποκτήσετε ασφάλεια πρώτα είναι η κυβέρνηση να θέσει σε εφαρμογή πρότυπα ασφαλείας για όλους».

Ροή Ειδήσεων Δημοφιλή