Μην εμπιστεύεσαι αυτό που βλέπεις - Πώς να αναγνωρίζετε τα fake βίντεο
Με την εισβολή της τεχνητής νοημοσύνης, η ορατή πραγματικότητα έχει θολώσει.
Εικόνες που μοιάζουν ρεαλιστικές, αλλά δεν είναι, μία διαστρέβλωση της πραγματικότητας, μία παραπλάνηση της κοινής γνώμης και πολλά άλλα, προϊόν τεχνολογίας που αγγίζει πολλές φορές ακόμα και τα όρια του ποινικού κώδικα.
Οι ειδικοί προειδοποιούν ότι οι λεγόμενες τεχνολογίες «deepfake» δεν περιορίζονται πλέον στην ψυχαγωγία ή τα ερευνητικά πειράματα και έχουν πλέον γίνει ένα αποτελεσματικό εργαλείο για την παραπληροφόρηση των μέσων ενημέρωσης, τον ψηφιακό εκβιασμό, τη βλάβη της φήμης των ανθρώπων και τη χειραγώγηση της κοινής γνώμης, μια τάση που θα μπορούσε επίσης να επηρεάσει την κοινωνική και πολιτική σταθερότητα.
Σύμφωνα με ειδικούς ότι νέες αναφορές και τεχνικές μελέτες υποδεικνύουν μια άνευ προηγουμένου αύξηση στη χρήση της τεχνολογίας deepfake. Στα αρχικά στάδια η παραγωγή τέτοιου περιεχομένου απαιτούσε υψηλή τεχνογνωσία, πολύ χρόνο και σημαντική επεξεργαστική ισχύ, αλλά αυτοί οι περιορισμοί έχουν ουσιαστικά εξαφανιστεί σήμερα.
Η έλευση των προηγμένων μοντέλων τεχνητής νοημοσύνης, τα εργαλεία ψηφιακής πλαστογράφησης έχουν γίνει ευρέως διαθέσιμα και εύχρηστα. Αυτά τα εργαλεία μπορούν να παράγουν εξαιρετικά ρεαλιστικό περιεχόμενο μέσα σε λίγα λεπτά, κάτι που είναι ακόμη πιο επικίνδυνο σε ένα ταχέως εξελισσόμενο περιβάλλον μέσων ενημέρωσης όπου ο έλεγχος γεγονότων μερικές φορές παραμελείται.
Οι «γραμμές άμυνας» στο ψεύτικο περιεχόμενο
Τα εργαλεία που είναι διαθέσιμα στους χρήστες ως πρώτη γραμμή άμυνας για τον εντοπισμό ψεύτικου περιεχομένου, υπάρχουν όπως σημειώνουν ειδικοί στον τομέα. Αυτά περιλαμβάνουν το Deepfake Detection, το οποίο αναλύει μοτίβα κίνησης, pixel και ήχους που δεν είναι ανιχνεύσιμοι στο μάτι ή το αυτί για την ανίχνευση πιθανής παραποίησης.
Το Copyleaks, το οποίο αναλύει την ψηφιακή δομή των εικόνων και τις συγκρίνει με μεγάλες βάσεις δεδομένων, χρησιμοποιείται σε πολλά ειδησεογραφικά πρακτορεία για να αποτρέψει την είσοδο ψεύτικων εικόνων σε έκτακτες ειδήσεις.
Το εργαλείο Arting AI χρησιμοποιείται επίσης για τον εντοπισμό εικόνων που δημιουργούνται από AI, οι οποίες συνήθως αποκαλύπτουν ανεπαίσθητες ασυνέπειες στο φόντο, υπερβολικά εξιδανικευμένες λεπτομέρειες και κρυμμένα αλγοριθμικά σημάδια. Επιπλέον, το πρόσθετο InVID – WeVerify, που χρησιμοποιείται ευρέως σε ερευνητικά ειδησεογραφικά πρακτορεία σε όλο τον κόσμο, εντοπίζει την επαναχρησιμοποίηση παλιών εικόνων σε παραπλανητικά συμφραζόμενα, αναλύοντας το βίντεο σε στατικά καρέ και χρησιμοποιώντας αντίστροφη αναζήτηση.
Στο πλαίσιο αυτό, οι ειδικοί στον κυβερνοχώρο επισημαίνουν σημάδια όπως οι αφύσικες κινήσεις των ματιών, η ασυνέπεια της φωνής με τις εκφράσεις του προσώπου, η παραμόρφωση στα χέρια ή τα αυτιά, οι διαφορές φωτισμού μεταξύ του ατόμου και του φόντου και η απουσία πραγματικών σκιών ως πρώιμα σημάδια πλαστογραφίας. Ωστόσο, αυτά τα σημάδια δεν επαρκούν χωρίς εξειδικευμένα εργαλεία.
Για να μειώσετε τους κινδύνου, καλό είναι οι χρήστες να αποφεύγουν την αναδημοσίευση σοκαριστικού περιεχομένου πριν ελέγξουν την αυθεντικότητά του, να χρησιμοποιούν ταυτόχρονα πολλά εργαλεία ταυτοποίησης, να μην βασίζονται αποκλειστικά σε οπτικές εντυπώσεις, να διατηρούν ενεργοποιημένες τις ρυθμίσεις απορρήτου του λογαριασμού τους και να διατηρούν πάντα τις πρωτότυπες εκδόσεις των προσωπικών εικόνων και βίντεο.