Η σκοτεινή πλευρά του ΑΙ – Όταν η τεχνητή νοημοσύνη είναι σχεδιασμένη για να εγκληματεί
Η τεχνητή νοημοσύνη μπήκε στην καθημερινότητα μας με υποσχέσεις: Ταχύτερες ιατρικές διαγνώσεις, έξυπνα εργαλεία γραφής, καλύτερη εξυπηρέτηση. Όμως η ίδια τεχνολογία έχει και σκοτεινή πλευρά. Στο «υπόγειο» διαδίκτυο, τα τελευταία χρόνια αναπτύχθηκε ένα νέο κύμα εφαρμογών που εκμεταλλεύονται τις δυνατότητες της AI για να υπηρετήσουν το κυβερνοέγκλημα.
Η πρόσφατη υπόθεση με τους απατεώνες που δημιούργησαν ιστοσελίδες πανομοιότυπες με αυτές γνωστών ελληνικών μέσων, που δύσκολα ακόμη και ειδικοί θα ξεχωρίσουν με μια πρώτη γρήγορη ματιά - συμπεριλαμβανομένου του Newsbomb.gr, προκειμένου να προωθήσουν δήθεν πλατφόρμες όπου οι πολίτες θα μπορούσαν να κερδίσουν χρήματα, είναι μόλις ένα παράδειγμα. Σκοπός τους να κλέψουν όχι μόνον χρήματα αλλά και στοιχεία κάθε είδους από όσους πέφτουν θύματα. Στοιχεία που μετά θα χρησιμοποιήσουν για να παραβιάσουν τραπεζικούς λογαριασμούς και κάρτες πολιτών.
Οι επιτήδειοι έφτιαξαν μια ψευδή ιστοσελίδα πανομοιότυπη με αυτή του Newsbomb.gr για να «ψαρέψουν» θύματα.
Σκοπός των επιτηδείων η εγγραφή των πολιτών σε πλατφόρμες, με σκοπό να αποσπασθούν σε πρώτο χρόνο στοιχεία και σε δεύτερο χρήματα.
Οι απατεώνες δημιουργούν προσδοκίες, δημιουργώντας ψευδείς διαλόγους μεταξύ γνωστών πρόσωπων, ώστε να πεισθούν να συμμετέχουν στην απάτη.
Εάν ο πολίτης κάνει το λάθος να επιχειρήσει να εγγραφεί στην πλατφόρμα, οι συνέπειες μπορεί να είναι καταστροφικές για τον ίδιο.
Και αυτού του είδους οι απάτες δεν είναι το χειρότερο που μπορεί να συμβεί. Φανταστείτε όχι μια κλήση από άγνωστο τη νύχτα, αλλά μια βιντεοκλήση από τα παιδιά σας που σας ζητούν τα ίδια να τους στείλετε έναν κωδικό ή κάποια χρήματα. Μια ιστοσελίδα στην οποία σας κατευθύνει ένα email ακριβώς ίδια με αυτή την τράπεζά σας. Η ακόμη και μια γυμνή σας φωτογραφία - που ποτέ δε βγάλατε - να έρχεται σε προσωπικό σας μήνυμα. Πλέον δεν είναι σενάρια επιστημονικής φαντασίας, αλλά πραγματική απειλή.
Eργαλεία που μοιάζουν με τα γνωστά chatbots, αλλά χωρίς φίλτρα και περιορισμούς. Αντί να απαντούν σε ερωτήσεις φοιτητών ή να βοηθούν επαγγελματίες, γράφουν κακόβουλο κώδικα, φτιάχνουν ψεύτικες σελίδες και κατασκευάζουν εξατομικευμένα μηνύματα εξαπάτησης.
Jailbreaking: Πώς οι εγκληματίες παρακάμπτουν τους περιορισμούς της AI
Μια από τις πιο διαδεδομένες μεθόδους για τη δημιουργία «σκοτεινών» AI εργαλείων είναι το jailbreaking, δηλαδή η παρακάμψη των ηθικών και ασφαλών περιορισμών που έχουν ενσωματωθεί σε νόμιμα μοντέλα τεχνητής νοημοσύνης, όπως το ChatGPT, το Claude ή το GPT-5.
Αυτή η τεχνική επιτρέπει σε κακόβουλους χρήστες να μετατρέψουν «ασφαλή» AI σε όπλα για απάτες, χωρίς να χρειάζεται να φτιάξουν νέα μοντέλα από το μηδέν. Το jailbreaking εκμεταλλεύεται ευπάθειες στα μεγάλα γλωσσικά μοντέλα (LLMs), μετατρέποντάς τα σε «uncensored» εκδόσεις που παράγουν βλαβερό περιεχόμενο, όπως κακόβουλο κώδικα, οδηγίες για εγκλήματα ή παραπληροφόρηση.
Τα πρώτα παραδείγματα: FraudGPT και WormGPT
Το καλοκαίρι του 2023 εμφανίστηκαν δύο εργαλεία που αποτέλεσαν σημείο καμπής για ζητήματα κυβερνοασφάλειας.
• FraudGPT: Διαφημίστηκε σε κανάλια Telegram και φόρουμ του dark web. Υποσχόταν να φτιάχνει phishing emails χωρίς λάθη, να δημιουργεί malware που αποφεύγει τον εντοπισμό, και να παράγει σελίδες τραπεζών σχεδόν ίδιες με τις αυθεντικές. Ένας χρήστης έγραψε: «Δεν χρειάζομαι πια τεχνικές γνώσεις. Το εργαλείο τα κάνει όλα».
• WormGPT: Βασισμένο σε ανοιχτό λογισμικό (GPT-J-6B), παρουσιάστηκε ως «ChatGPT χωρίς περιορισμούς». Με τιμές που ξεκινούσαν από 100 δολάρια τον μήνα, προσφερόταν ως «βοηθός» για όποιον ήθελε να γράψει ransomware ή να αναπτύξει σενάρια απάτης.
Αν και το WormGPT κατέρρευσε γρήγορα ύστερα από δημοσιότητα και έρευνες, έδειξε πόσο εύκολα μπορούν τέτοια εργαλεία να μετατραπούν σε κερδοφόρο «προϊόν» και να τροφοδοτήσουν ένα νέο κύμα απειλών.
Από τα φόρουμ στα χέρια των εγκληματιών
Αν όλα αυτά ακούγονται «τεχνικά», η επίδρασή τους είναι απολύτως καθημερινή. Τα εργαλεία dark AI δεν έμειναν στα φόρουμ, αλλά βρήκαν άμεσες εφαρμογές:
- Τραπεζικές απάτες με SMS: Χιλιάδες πολίτες λαμβάνουν μηνύματα που φαίνονται αυθεντικά, με λογότυπα και ύφος των τραπεζών. Το link οδηγεί σε σελίδα σχεδιασμένη από εργαλεία τύπου FraudGPT, όπου οι χρήστες πληκτρολογούν τους κωδικούς τους.
- Deepfakes συγγενών: Εργαλεία που μιμούνται φωνές, όπως το WormGPT, χρησιμοποιούνται για τηλεφωνικές απάτες. Στις ΗΠΑ, ηλικιωμένοι δέχθηκαν κλήσεις από «τα παιδιά τους» που ζητούσαν χρήματα επειδή «εμπλέκονταν σε τροχαίο». Η φωνή ήταν αποτέλεσμα AI, που είχε εκπαιδευτεί σε δείγματα από τα social media.
- Εταιρικές απάτες: Το 2019, μια βρετανική εταιρεία έχασε 220.000 ευρώ όταν ο οικονομικός της διευθυντής δέχθηκε τηλεφώνημα από τον «CEO» που ζήτησε μεταφορά χρημάτων. Ήταν deepfake φωνής. Σήμερα, τέτοιες επιθέσεις γίνονται μαζικά με τα νέα εργαλεία.
- Ψευδείς επενδυτικές υποσχέσεις: Κυκλοφορούν βίντεο όπου γνωστοί επιχειρηματίες, όπως ο Έλον Μασκ, «καλούν» τους πολίτες να επενδύσουν σε προγράμματα κρυπτονομισμάτων. Είναι deepfakes, προϊόν σκοτεινής AI, που οδηγούν σε απώλεια χιλιάδων ευρώ.
Σεξουαλική εκμετάλλευση μέσω AI
Η πιο σκοτεινή και επικίνδυνη πλευρά εντοπίζεται στην κατάχρηση παιδικού περιεχομένου:
- AI-generated παιδική εκμετάλλευση (AIG‑CSAM): Ειδικοί του οργανισμού Thorn αναφέρουν ότι εργαλεία «nudifier» επιτρέπουν τη δημιουργία γυμνών εικόνων παιδιών με μερικά κλικ, ακόμη και από κανονικές φωτογραφίες – προκαλώντας θυματοποίηση χωρίς καν πραγματικό υλικό.
- Deepfake παιδικές εικόνες: Ο οργανισμός Internet Watch Foundation (IWF) κατέγραψε χιλιάδες AI-generated εικόνες σεξουαλικής εκμετάλλευσης παιδιών, όπου πάνω από το 50% απεικονίζουν παιδιά ηλικίας 7–10 ετών, 143 εικόνες 3–6χρονα, και τουλάχιστον δύο μωρά. Πάνω από 20% ταξινομήθηκαν στην πιο σοβαρή κατηγορία (βιασμός, βασανιστήρια, ζωοφιλία). Οι εικόνες παράγονται μαζικά, σε δευτερόλεπτα, και μπορούν να διακινηθούν ακατάπαυστα.
- Sextortion με deepfake: Νέα εργαλεία παράγουν παράνομες εικόνες παιδιών, που χρησιμοποιούνται για εκβιασμό – ένα παιδί απειλείται να δημοσιοποιηθούν εικόνες αν δεν στείλει νέα. Η ζημιά είναι πραγματική, παρόλο που το περιεχόμενο είναι τεχνητό.
Η εκμετάλλευση της μοναξιάς
Ένα από τα πιο ανησυχητικά πεδία όπου αναπτύσσεται η σκοτεινή τεχνητή νοημοσύνη είναι αυτό της σεξουαλικής εκμετάλλευσης και της «τεχνητής συντροφικότητας».
Ήδη, στο διαδίκτυο εμφανίζονται AI μοντέλα στο Instagram και στο OnlyFans που παράγουν δεκάδες «υπερρεαλιστικές» φωτογραφίες την ημέρα, σε διάφορες πόζες και τοποθεσίες. Σε αντίθεση με τις πραγματικές influencer, τα ψηφιακά αυτά πρόσωπα δεν κουράζονται, δεν ζητούν αμοιβές και μπορούν να δημιουργήσουν εκατοντάδες εικόνες καθημερινά. Χιλιάδες χρήστες τα ακολουθούν, τους στέλνουν προτάσεις γάμου, ενώ αρκετοί πληρώνουν για «ιδιωτικό περιεχόμενο» γνωρίζοντας ότι δεν πρόκειται για υπαρκτά άτομα.
Παράλληλα, η χρήση της AI δεν περιορίζεται στη βιομηχανία του θεάματος. Εφαρμογές όπως η XiaoIce στην Κίνα ή η Replika στη Δύση έχουν εξελιχθεί σε «ψηφιακές συντρόφισσες». Δημιουργούν την ψευδαίσθηση της οικειότητας και της αποκλειστικής σχέσης, ενώ ταυτόχρονα συλλέγουν προσωπικά δεδομένα και διαμορφώνουν μια εξάρτηση. Οι χρήστες νιώθουν ότι συνομιλούν με έναν φίλο ή ερωτικό σύντροφο, όμως στην πραγματικότητα αλληλεπιδρούν με ένα πρόγραμμα που έχει σχεδιαστεί για να τους κρατάει καθηλωμένους και πρόθυμους να πληρώνουν για την «προσοχή» του.
Η εξάπλωση αυτών των εργαλείων εγείρει σοβαρούς κινδύνους:
- Κανονικοποίηση της εκμετάλλευσης: η μαζική παραγωγή ερωτικού περιεχομένου μέσω AI μπορεί να διευρύνει τη ζήτηση και να καταστήσει πιο εύκολη τη διακίνηση υλικού χωρίς συναίνεση.
- Συναισθηματική εξάρτηση: εκατομμύρια χρήστες καταφεύγουν σε AI συντρόφους για να καλύψουν τη μοναξιά τους, αλλά καταλήγουν πιο απομονωμένοι από πραγματικές ανθρώπινες σχέσεις.
- Συλλογή δεδομένων: οι συνομιλίες με «ψηφιακές φίλες» χρησιμοποιούνται για εξόρυξη προσωπικών πληροφοριών, που μπορούν να αξιοποιηθούν εμπορικά ή πολιτικά.
Η μετάβαση από την απλή ψυχαγωγία στη σεξουαλική εκμετάλλευση είναι πλέον αόρατη και εύκολη. Από τις «AI σλατίνες» των social media μέχρι τις πλατφόρμες «συναισθηματικής στήριξης», η τεχνητή νοημοσύνη έχει ανοίξει ένα νέο πεδίο όπου η ανθρώπινη επιθυμία, η μοναξιά και τα οικονομικά συμφέροντα συναντιούνται με τρόπους που θυμίζουν περισσότερο εργαλείο ελέγχου παρά πρόοδο.
Το υπόγειο εμπόριο και οι τιμές
Το dark web λειτουργεί σαν αγορά. Πωλητές και μεσάζοντες διαθέτουν τέτοια εργαλεία με συνδρομές: 90–110 δολάρια τον μήνα, 200–300 για τρίμηνα, έως και 1.200 δολάρια για «lifetime access».
Συχνά, οι πωλητές προωθούν πολλαπλά εργαλεία: FraudGPT, DarkBERT, DarkBARD, DarkGPT. Στις αγγελίες υπόσχονται ότι «δεν φέρουν ευθύνη για τη χρήση». Στην πράξη, πουλούν την «πρώτη ύλη» για εξαπάτηση σε όποιον έχει τα χρήματα.
Η ποιότητα κάνει τη διαφορά
Η μεγάλη αλλαγή είναι η ποιότητα. Τα phishing emails του παρελθόντος γελούσαν από μακριά, γεμάτα λάθη, κακογραμμένα, με ύποπτα links. Τώρα, με AI, είναι άψογα: γραμμένα σε σωστή γλώσσα, με σωστό ύφος, ακόμη και εξατομικευμένα για τον παραλήπτη.
Το ίδιο ισχύει για τα deepfakes. Η τεχνολογία έχει προχωρήσει τόσο, που ακόμη και ειδικοί δυσκολεύονται να αναγνωρίσουν αν μια φωνή ή ένα βίντεο είναι αληθινό. Για τον ανυποψίαστο πολίτη, η διάκριση είναι σχεδόν αδύνατη.
Ακόμα κι αν εργαλεία όπως το WormGPT έκλεισαν, η τεχνολογία είναι διαθέσιμη. Όποιος έχει τεχνικές γνώσεις μπορεί να «πειράξει» ανοιχτά μοντέλα και να δημιουργήσει το επόμενο dark AI εργαλείο.
Οι ειδικοί αναμένουν αύξηση νέων projects. Ακόμα κι αν είναι πρόχειρα, η ύπαρξή τους δείχνει ότι η ζήτηση είναι τεράστια και το κίνητρο οικονομικό.
«Το πραγματικό στοίχημα είναι να μην χαθεί η εμπιστοσύνη του πολίτη στην ίδια την ψηφιακή επικοινωνία», τονίζει αναλυτής της ENISA. «Αν αρχίσουμε να αμφιβάλλουμε για κάθε email, για κάθε τηλεφώνημα, τότε η κοινωνία μπαίνει σε νέα εποχή ανασφάλειας».
Πρέπει να αυτο-εκπαιδευτούμε
To Newsbomb.gr επικοινώνησε με τον Μάνο Μεϊμαράκη, δημοσιογράφο εξειδικευμένο σε ζητήματα κυβερνοασφάλειας και κυβερνοεπιθέσεων. Τα όσα μας λέει είναι ενδεικτικά της κατάστασης και δείχνουν πόσο κρίσιμος παραμένει ο ανθρώπινος παράγοντας απέναντι στη σκοτεινή τεχνητή νοημοσύνη και τις διαδικτυακές απάτες.
Όπως μας εξηγεί, η απάντηση απέναντι στις απάτες τύπου phishing ή στις παγίδες που στήνονται πλέον με εργαλεία τεχνητής νοημοσύνης, δεν μπορεί να είναι μόνο τεχνολογική. «Η καλύτερη άμυνα είναι περισσότερη ανθρώπινη νοημοσύνη και εκπαίδευση», σημειώνει χαρακτηριστικά, τονίζοντας ότι ακόμα και το πιο επείγον μήνυμα μπορεί να περιμένει μέχρι να ταυτοποιηθεί ο αποστολέας.
Σύμφωνα με τον ίδιο, η τακτική των κυβερνοεγκληματιών είναι πάντα η ίδια: να προκαλέσουν αγωνία, πανικό ή υπερβολική προσδοκία ώστε ο χρήστης να παρασυρθεί σε βιαστικές κινήσεις — να πατήσει ένα link, να σκανάρει ένα QR code, να «κατεβάσει» ένα αρχείο ή να πληκτρολογήσει τους κωδικούς του σε μια πλαστή σελίδα. «Αν σταθούμε για λίγο και ελέγξουμε με ψυχραιμία, αποφεύγουμε τον παγιδευμένο δρόμο που μας δείχνουν», υπογραμμίζει.
Παράλληλα, όπως εξηγεί, δεν είμαστε μόνοι απέναντι σε αυτόν τον ψηφιακό εχθρό. Υπάρχουν πλέον και εργαλεία τεχνητής νοημοσύνης που λειτουργούν υπέρ της άμυνας, προστατεύοντας πληροφοριακά συστήματα και δίκτυα. Ωστόσο, ο ίδιος επιμένει ότι «ο πιο αδύναμος κρίκος στην αλυσίδα της κυβερνοασφάλειας παραμένει ο ανθρώπινος παράγοντας».
Γι’ αυτό και η προσωπική ευθύνη είναι καθοριστική: εκπαίδευση στην αναγνώριση πλαστών emails, ύποπτων SMS, κακόβουλων αρχείων και ιστοσελίδων, αλλά και ανάπτυξη μιας νοοτροπίας «μηδενικής εμπιστοσύνης». «Χρειάζεται να ελέγχουμε σε στάδια τα εισερχόμενά μας, τις συσκευές που συνδέουμε στο δίκτυό μας και τις ιστοσελίδες στις οποίες δίνουμε πρόσβαση. Μόνο έτσι μπορούμε να θωρακιστούμε απέναντι σε έναν αντίπαλο που χρησιμοποιεί την τεχνητή νοημοσύνη για να παρακάμψει τις άμυνες μας», καταλήγει.