Αυτοί είναι οι υπαρξιακοί κίνδυνοι της Τεχνητής Νοημοσύνης - Κορυφαίος επιστήμονας εξηγεί

Το Newsbomb.gr συνομίλησε με έναν εκ των κορυφαίων Ελλήνων επιστημόνων στον τομέα των υπολογιστών και της τεχνητής νοημοσύνης. Ο Χρίστος Παπαδημητρίου περιγράφει σε ποιο στάδιο βρισκόμαστε, αλλά και μας προειδοποιεί για όλα αυτά που έρχονται στο άμεσο μέλλον...
Αυτοί είναι οι υπαρξιακοί κίνδυνοι της Τεχνητής Νοημοσύνης - Κορυφαίος επιστήμονας εξηγεί
13'

Ο Χρίστος Παπαδημητρίου είναι ένας από τους Έλληνες επιστήμονες που μεγαλουργούν διεθνώς, συνεισφέροντας στην καθοδήγηση της ανθρωπότητας προς την τεχνολογική εξέλιξη και πρόοδο.

Ο ίδιος ειδικεύεται στους υπολογιστές από το μακρινό 1973, που για εμάς τους περισσότερους φαντάζει ως μια εποχή αντίστοιχης διαφοράς της εποχής του Χαλκού με τη σημερινή, όσον αφορά την πρόοδο της Πληροφορικής φυσικά. Κι όμως, από πολύ νωρίτερα ο ανθρώπινος νους είχε ξεκινήσει την προσπάθεια να αποκτήσει έναν «μηχανικό βοηθό», όπως έχει περιγράψει παραστατικά και ο ίδιος στο κόμικ Logicomix, μια διεθνή επιτυχία για την ιστορία της επιστήμης, που συνέγραψε με τον Απόστολο Δοξιάδη.

Οι διαρκείς «χειμώνες» όμως της Τεχνητής Νοημοσύνης, τελείωσαν οριστικά το 2012, όταν συνέβη ένα κομβικό γεγονός, που άλλαξε τα πάντα: Μια μηχανή κατάφερε να απαντήσει σωστά στο ερώτημα αν μια φωτογραφία περιέχει μια γάτα… Και σε μόλις 10 χρόνια, το ChatGPT ήταν έτοιμο.

Έχοντας διδάξει στα κορυφαία πανεπιστήμια του κόσμου (Berkeley, Harvard, MIT, Stanford αλλά και στο ΕΜΠ) και λάβει πέντε κορυφαία επιστημονικά βραβεία, σήμερα ο Χρίστος Παπαδημητρίου είναι καθηγητής της Επιστήμης των Υπολογιστών στο φημισμένο Πανεπιστήμιο Κολούμπια της Νέας Υόρκης, ερευνητής στο πρόγραμμα «Archimedes AI» και Τακτικό μέλος της Ακαδημίας Αθηνών αλλά των ΗΠΑ. Αυτή την εποχή στο επίκεντρο των ερευνών του είναι μάλλον το… μέλλον του 21ου αιώνα: Πώς μπορεί να ωφεληθεί η ανθρώπινη νοημοσύνη από την τεχνητή, αλλά και το αντίθετο, μιας και οι διαφορές λειτουργίας του εγκεφάλου με το… ChatGPT παραμένουν μεγάλες…

Ο διαπρεπής ερευνητής συμμετείχε στο πρόσφατο Οικονομικό Φόρουμ των Δελφών, σε πάνελ σχετικό με την τεχνητή νοημοσύνη, και σε συνέντευξή του στο Newsbomb.gr αναλύει τις εξελίξεις, όσο και τους μεγάλους κινδύνους που ο ίδιος διαβλέπει για το άμεσο μέλλον, οι οποίοι μπορεί σε κάποιον βαθμό να είναι αναπόφευκτοι, και να μας αφορούν όλους.

«Όσο πιο κοντά είναι κανείς σε αυτές τις μηχανές, τόσο περισσότερο τις θαυμάζει και τόσο λιγότερο τις… εμπιστεύεται», εξηγεί, καθώς η τεχνητή νοημοσύνη ακολουθεί «τα κουσούρια της κοινωνίας μας, τις λανθασμένες απόψεις και άδικες προκαταλήψεις, ενώ δεν έχει την κρίση να τις αναγνωρίζει και να τις αγνοεί».

Για τον ίδιο, η πιο επικίνδυνη πλευρά της Τεχνητής Νοημοσύνης είναι «ότι η περαιτέρω ανάπτυξή της γίνεται μέσα σε έναν ξέφρενο ανταγωνισμό μεταξύ λίγων γιγάντων. Και στο τέλος θα μείνει μόνο ένας, και για να επικρατήσει μέχρι τότε, σίγουρα δεν θα σκεφτεί κοινωνικές συνιστώσες, όπως η ανεργία και η ανισότητα που μπορεί να έχει προκαλέσει».

Ωστόσο αυτή δεν είναι η ουσία του προβλήματος, καθώς όπως αναφέρει, «όποιος ζει με τον φόβο ότι μια μέρα θα μας κυβερνούν μηχανές, προφανώς δεν δίνει αρκετή προσοχή σε αυτούς που μας κυβερνούν σήμερα»...

muliparkpic.jpg

Διαβάστε τη συνέντευξη:

Newsbomb.gr: Κύριε Παπαδημητρίου, έχουμε εισέλθει για τα καλά στην εποχή των αλγορίθμων και της τεχνητής νοημοσύνης, και νομίζω ότι αυτό θα το δούμε σύντομα ακόμα πιο έντονα σε όλες τις εκφάνσεις της ανθρώπινης δραστηριότητας. Αρχικά θα ήθελα να σας ρωτήσω, είναι τα πράγματα σε αυτόν τον τομέα όπως περιμένατε ότι θα γίνουν, αρκετά χρόνια πίσω, όταν ξεκινούσατε το έργο σας ως ερευνητής;

Χρίστος Παπαδημητρίου: Η Τεχνητή Νοημοσύνη δεν ήρθε ξαφνικά και από το πουθενά, ήταν μια μακριά πορεία που άρχισε πριν από 80 χρόνια και που την ξεκίνησαν γίγαντες της επιστήμης, όπως ο Turing και ο von Neumann. Η ιστορία της είχε πολλά σκαμπανεβάσματα, μακρές περιόδους ύφεσης που τις λέγαμε «χειμώνες της Τεχνητής Νοημοσύνης». Συνεπαρμένοι από το φιλόδοξο όραμά τους, οι ερευνητές της υπόσχονταν πολλά και συχνά υπερέβαλλαν τις επιτυχίες τους, με αποτέλεσμα να χάσουν την εμπιστοσύνη των ερευνητικών χορηγών και των επενδυτών, αλλά και του κόσμου.

Σε έναν τέτοιο βαρύ χειμώνα λοιπόν άρχισα και εγώ την καριέρα μου το 1973, και δυο-τρεις άλλοι χειμώνες ήρθαν αργότερα. Αλλά η σκληρή δουλειά και οι ιδιοφυείς ιδέες δεν έλλειπαν, και πρόοδος υπήρχε. Και υπήρχε και μια αισιοδοξία ότι αργά ή γρήγορα θα είχαμε σημαντικές επιτυχίες. Αλλά ελάχιστοι περίμεναν την έκρηξη που συνέβη το 2012.

Πώς θα εξηγούσατε, με απλά λόγια, σε κάποιον πρωτοετή φοιτητή σας, τον τρόπο που λειτουργούν οι αλγόριθμοι, τις δυνατότητες τις οποίες έχουν αλλά και αυτές που διανοίγονται χάρη σε αυτούς, στο άμεσο μέλλον, σε συνδυασμό με τη μηχανική μάθηση;

Η λέξη «αλγόριθμος» δεν ταιριάζει σε αυτά τα συστήματα. Είναι μηχανές που μαθαίνουν. Αλγόριθμος είναι κάτι άλλο, μια διεργασία που την προγραμματίσαμε, και επομένως ξέρουμε πώς δουλεύει. Τις μηχανές Τεχνητής Νοημοσύνης τις έχουμε απλώς προγραμματίσει να μάθουν από τα δεδομένα που τους παρουσιάζουμε. Αλλά μετά την εκπαίδευσή τους με τα δεδομένα, δεν πολυκαταλαβαίνουμε τη λειτουργία τους και δεν μπορούμε να την προβλέψουμε!

Σκεφτείτε μια μηχανή Τεχνητής Νοημοσύνης σαν ένα τεράστιο «μαύρο κουτί», κάτι σαν ηλεκτρικό δίκτυο που έχει μέσα δισεκατομμύρια αντιστάσεις και χωρητικότητες. Οι τιμές αυτών των παραμέτρων άλλαξαν κάπως μετά από όλα αυτά τα δεδομένα που τους παρουσιάσαμε, αλλά κανείς δεν ξέρει πώς ακριβώς άλλαξαν. Απλά οι αλλαγές αυτές το βοηθούν να απαντά λίγο-πολύ σωστά σε ό,τι το ρωτάμε. Όσο πιο κοντά είναι κανείς σε αυτές τις μηχανές, τόσο περισσότερο τις θαυμάζει και τόσο λιγότερο τις… εμπιστεύεται!

Η σειρά των επιτυχιών άρχισε το 2012, όταν μια τέτοια μηχανή άρχισε να απαντάει σωστά στην ερώτηση αν μια φωτογραφία περιέχει μια γάτα. Κάτι δηλαδή που ένα μωρό δύο χρονών το κάνει άνετα, αλλά η Τεχνητή Νοημοσύνη δεν μπορούσε μέχρι τότε. Πώς το κατάφεραν αυτό; Άρχισαν με μια απλή μηχανή, με τυχαίες παραμέτρους, τής έδειχναν φωτογραφίες και ρωτούσαν «βλέπεις γάτα;» Στην αρχή η μηχανή απαντούσε στην τύχη. Ναι, Όχι. Αλλά όταν έκανε λάθος, τις παραμέτρους που την έσπρωξαν προς την λάθος κατεύθυνση τις μειώναμε, και αυτές που έδειχναν προς το άλλη απάντηση τις αυξάναμε. Και όταν έδινε κατά τύχη τη σωστή απάντηση, το αντίθετο. Έτσι, μετά από εκπαίδευση σε εκατομμύρια φωτογραφίες, το μηχάνημα είχε μάθει να απαντάει λίγο-πολύ σωστά.

Τα υπόλοιπα έγιναν πολύ γρήγορα. Οι μηχανές αυτές μάθαιναν όλο και καλύτερα, και αρχίσαμε να εκπαιδεύουμε κάτι πιο προχωρημένες μηχανές όχι σε εικόνες αλλά σε κείμενα, στην ανθρώπινη γλώσσα – όπου η ερώτηση τώρα δεν είναι αν υπάρχει γάτα, αλλά «ποια είναι η επόμενη λέξη»; Και την ίδια ερώτηση την ρωτάμε για κάθε λέξη κάθε βιβλίου και κάθε κειμένου που έχει γραφτεί ποτέ, ενώ η μηχανή μαθαίνει από τα λάθη της και τις επιτυχίες της. Έτσι φτάσαμε το 2022 στο ChatGTP. Και από τότε η πρόοδος επιταχύνθηκε ακόμα πιο πολύ γιατί η εκπαίδευση δεν γίνεται πια στην απομόνωση του εργαστηρίου, αλλά σε αλληλοεπίδραση με όλον τον κόσμο.

Πώς λοιπόν «εκπαιδεύει» το κοινό το ChatGTP;

Το ChatGPT είναι ένα μόνο από τα πολλά μοντέλα γλώσσας που υπάρχουν, και όχι αναγκαστικά το καλύτερο, εμένα μου αρέσει η Claude - και να μην ξεχνάμε και το Deepseek. Τέλος πάντων, η αλληλοεπίδραση με τους χρήστες βοηθάει το όποιο μοντέλο να δημιουργήσει ένα σύμπλεγμα από προτιμήσεις, δηλαδή ποιες επιλογές του είναι προτιμότερες από ποιες άλλες και υπό ποιές συνθήκες. Και έτσι μπορούμε να αντιμετωπίσουμε τη διαδικασία της απάντησης ως απόφαση, κάτι σαν «το ρομπότ τώρα να στρίψει δεξιά ή αριστερά», και να χρησιμοποιήσουμε εδώ τις μεθόδους που αναπτύξαμε πρόσφατα με τεράστια επιτυχία για τη ρομποτική και παιχνίδια σαν το Go και το σκάκι.

Επειδή έχετε ασχοληθεί και με την ιστορία των επιστημών, τις δυσκολίες και τις αγωνίες του ερευνητή, μέχρι να φτάσει στο μεγάλο αποτέλεσμα… Αναφέρομαι στο πολύ πετυχημένο διεθνώς μυθιστόρημα Logicomix το οποίο συγγράψατε με τον Απόστολο Δοξιάδη. Μήπως το Logicomix του μέλλοντος, δεν θα μπορεί πια να αναφέρεται σε ανθρώπινα όντα; Μήπως αναγκαστικά θα αφήσουμε την έρευνα και την εξέλιξη πολλών επιστημών σε αυτόν που το κάνει ήδη καλύτερα από εμάς (σε κάποιους τομείς), τον αλγόριθμο; Και τι θα σημάνει αυτό;

Η Τεχνητή Νοημοσύνη, δηλαδή αυτές οι μηχανές που μαθαίνουν, είναι ακόμα πίσω από τον ανθρώπινο εγκέφαλο σε μερικούς τομείς. Για παράδειγμα, στον τρόπο που καταλαβαίνουν τα συναισθήματα και τα κίνητρα των ανθρώπων, και τις κοινωνικές σχέσεις. Χρησιμοποιούν πολύ περισσότερη ενέργεια για να σκεφτούν – ο εγκέφαλός σας δουλεύει με 16 βατ, το ChatGTP χρειάζεται εκατομμύρια. Και σίγουρα δεν τα καταφέρνουν στην πρωτότυπη επιστημονική σκέψη. Δεν περιμένω να δω πραγματικά καινοτόμες επιστημονικές ιδέες που προέρχονται από μηχανές.

Αλλά η Τεχνητή Νοημοσύνη ήδη βοηθάει επιστήμονες στην δουλειά τους, να λύσουν προβλήματα – ακόμα και στα θεωρητικά μαθηματικά – που θα ήταν περίπου αδύνατο να λυθούν χωρίς την Τεχνητή Νοημοσύνη. Μπορούν δηλαδή να είναι πραγματικά πολύτιμοι επιστημονικοί βοηθοί. Και αυτό θα γίνεται όλο και πιο συχνά, και σε όλο πιο προχωρημένα προβλήματα. Αλλά μού αρέσει που θυμηθήκατε το Logicomix σε αυτή τη συζήτηση, γιατί από την ιστορία της θεμελίωσης των μαθηματικών που αφηγούμαστε στο Logicomix, από εκεί άρχισε το μακρύ ταξίδι που τελικά μας έφερε εδώ…

logicomix-1.jpg

Θεωρείτε ότι θα φτάσει η ημέρα -ή έχει ήδη φτάσει- που θα πρέπει να τεθούν αυστηροί κανόνες, προκειμένου η χρήση της τεχνητής νοημοσύνης να παραμείνει στα πλαίσια λειτουργίας που επιθυμούμε; Ή μήπως είναι αναπόφευκτο ότι ο αλγόριθμος θα τα ξεπεράσει όλα αυτά, και θα λειτουργεί λαμβάνοντας υπόψη μόνο τους δικούς του κανόνες;

Η Τεχνητή Νοημοσύνη φέρνει πολλούς και σοβαρούς κινδύνους. Που να αρχίσει κανείς; Κατ’ αρχήν έχει εκπαιδευθεί με δεδομένα που περιέχουν τα κουσούρια της κοινωνίας μας – λανθασμένες απόψεις, άδικές προκαταλήψεις – και δεν έχει την κρίση να τις αναγνωρίζει και να τις αγνοεί. Επίσης, η Τεχνητή Νοημοσύνη αυξάνει την ανισότητα, τη μάστιγα της ανθρωπότητας τα τελευταία 50 χρόνια. Η εισαγωγή της στην εργασία, και ανεργία δημιουργεί (κάτι που βέβαια περίπου όλες οι νέες τεχνολογίες το κάνουν), αλλά αυξάνει την ανισότητα και ανάμεσα σε αυτούς που συνεχίζουν να δουλεύουν. Και βέβαια όταν σού παίρνει την δουλειά στο κάνει με τον πιο ύπουλο και άδικο τρόπο. Π.χ, αν εσάς – χτυπάω ξύλο – σας αντικαταστήσει κάποτε μια Τεχνητή Νοημοσύνη στην εφημερίδα, αυτή η Τεχνητή Νοημοσύνη θα έχει μάθει την δουλειά του δημοσιογράφου μελετώντας τα άρθρα πολλών συναδέλφων σας, συμπεριλαμβανομένης και της δικιάς σας δουλειάς.

Φοβούμαι ότι η εισαγωγή της στις υπηρεσίες θα καταλήξει σε μια κούρσα προς τον πάτο, όπου όλο και πιο συχνά θα μιλάμε στο τηλέφωνο σε Τεχνητή Νοημοσύνη αντί για εργαζόμενο, ο πελάτης δεν θα εξυπηρετείται, η εταιρεία θα χάνει πελάτες αλλά δεν θα κάνει πίσω γιατί οι ανταγωνιστές έχουν κατεβάσει και αυτοί το κόστος με τον ίδιο τρόπο, και εν τω μεταξύ οι υπάλληλοι θα είναι άνεργοι.

Για μένα, η πιο επικίνδυνη πλευρά της Τεχνητής Νοημοσύνης είναι ότι η περαιτέρω ανάπτυξή της γίνεται μέσα σε έναν ξέφρενο ανταγωνισμό μεταξύ λίγων γιγάντων. Η βιομηχανία αυτή είναι πολύ μονοπωλιακή, και οι ανταγωνιστές πιστεύουν ότι σε δέκα χρόνια θα υπάρχει μία μόνο εταιρεία, και θέλουν με κάθε θυσία να είναι η δικιά τους εταιρεία. Και για αυτό πέφτουν με τα μούτρα στην εκπαίδευση όλο και πιο μεγάλων μοντέλων σα να μην υπάρχει αύριο. Και βέβαια δεν δίνουν καμιά προσοχή ούτε στην ζημιά που κάνουν στο περιβάλλον, ούτε στην ασφάλεια της λειτουργίας των δημιουργημάτων τους.

Όντως πρέπει να υπάρξουν κανόνες, αλλά η πραγματικότητα – ο αχαλίνωτος ανταγωνισμός που ανέφερα και το πολιτικό κλίμα στις ΗΠΑ, παρά μερικές προσπάθειες από την ΕΕ – δεν μας δίνουν ελπίδες ότι θα έχουμε σύντομα κοινωνικό έλεγχο της Τεχνητής Νοημοσύνης, και αυτό το θεωρώ πολύ επικίνδυνο.

Τώρα, για τους υπαρξιακούς κινδύνους για τους οποίους μιλούν πολλοί. Ότι δηλαδή η Τεχνητή Νοημοσύνη θα μας υποδουλώσει και θα μας εξολοθρεύσει. Κατ’ αρχήν, όταν οι ίδιοι οι επιστήμονες της Τεχνητής Νοημοσύνης εκφράζουν τέτοιους φόβους, εγώ το βλέπω λίγο σαν «σύνδρομο Οπενχάιμερ», δηλαδή σα να μας λένε «είμαι τόσο έξυπνος, που το δημιούργημά μου θα καταστρέψει τον κόσμο». Νομίζω ότι όποιος ζει με τον φόβο ότι μια μέρα θα μας κυβερνούν μηχανές, προφανώς δεν δίνει αρκετή προσοχή σε αυτούς που μας κυβερνούν σήμερα.

Καταλαβαίνω τι εννοείτε… Ωστόσο να επιμείνω σε αυτό. Οι ταινίες «εξολοθρευτής» και «Matrix» είναι στις μέρες μας τόσο… επιστημονική φαντασία, όσο την εποχή που δημιουργούνταν;

Έχετε δίκιο, ζούμε όντως σε δυστοπία, σαν εκείνες στα δύο εμβληματικά φιλμ που αναφέρατε. Συγκεκριμένα, εγώ που πηγαινοέρχομαι ανάμεσα σε Αθήνα και Νέα Υόρκη ζω σε δύο αρκετά διαφορετικές δυστοπίες. Είναι φυσικό λοιπόν να θυμόμαστε όλες τις αφηγήσεις δυστοπίας από τον George Orwell και μετά…

seapic.jpg

Σε ποιον τομέα επικεντρώνετε τις έρευνες σας αυτή την εποχή;

Τα τελευταία δέκα χρόνια με ενδιαφέρει να καταλάβω πώς λειτουργεί ο ανθρώπινος εγκέφαλος, ιδιαίτερα ως προς την γλώσσα. Και αυτό με φέρνει συχνά κοντά στην Τεχνητή Νοημοσύνη. Στο πανεπιστήμιό μου ιδρύσαμε προ δύο ετών ένα Ινστιτούτο, με χρηματοδότηση 20 εκατομμυρίων δολαρίων, που το ονομάσαμε ARNI: ARtificial and Natural Intelligence. Τεχνητή και Φυσική Νοημοσύνη. Τι έχει να κερδίσει η Τεχνητή Νοημοσύνη από τη μελέτη του εγκεφάλου, και το αντίθετο. Βέβαια η χρηματοδότηση προέρχεται από την ομοσπονδιακή κυβέρνηση των ΗΠΑ, και μάλιστα μέσω του πανεπιστημίου μου του Κολούμπια που τελεί υπό δυσμένεια, οπότε τώρα όλα είναι ρευστά…

Για εσάς προσωπικά, ποιος είναι ο στόχος της καριέρας σας; Τι είναι αυτό που θέλετε να έχετε επιτύχει ή να προσφέρετε, μέχρι το κλείσιμό της;

Ο στόχος μου είναι να μη σταματήσω ποτέ να δουλεύω με τους φοιτητές μου και τους συνεργάτες μου πάνω σε επιστημονικά θέματα που τα βρίσκω συναρπαστικά.

Σχετικές ειδήσεις