Τα deepfakes τεχνητής νοημοσύνης είναι το νέο πρόσωπο της εξαπάτησης. Πρόκειται για φωνές, εικόνες, βίντεο ή ακόμα και κείμενα που δημιουργούνται από τεχνητή νοημοσύνη (AI) που φαίνονται και ακούγονται απολύτως αληθινά.
Περισσότερο από μια απλή απειλή – Μην εμπιστεύεστε κανέναν
Οι ερευνητές του Citi Institute κρούουν τον κώδωνα του κινδύνου υπογραμμίζοντας ότι τα deepfakes έχουν… ξεφύγει. Συστήθηκαν στον χώρο του θεάματος και της ψυχαγωγίας και πλέον έχουν εξελιχθεί σε «όπλα» στα χέρια των επιτήδειων του διεθνούς ηλεκτρονικού εγκλήματος, σηματοδοτώντας μια νέα εποχή.
Πρώτα ο ήχος, τώρα η εικόνα
Η πρώτη γενιά deepfake περιοριζόταν σε ηχητικά αρχεία, δηλαδή παραποιημένες φωνές, αυτοματοποιημένα bot που έδιναν οδηγίες για επείγουσες πληρωμές ή παραπλανητικά μηνύματα επικοινωνίας. Σήμερα η εικόνα είναι διαφορετική. Έχουν φτάσει στο επίπεδο του real-time βίντεο με ρεαλιστικές εκφράσεις προσώπου και χειρονομίες που δύσκολα ξεχωρίζουν από έναν πραγματικό άνθρωπο.
Οι απόπειρες απάτης πολλαπλασιάζονται με ταχείς ρυθμούς. Το 2024 σημειώθηκε σημαντική αύξηση των περιπτώσεων που σχετίζονται με deepfake, οι οποίες αντιπροσώπευαν σχεδόν το 4,7% του συνόλου από 0,10% το 2022.
Το 2024 σημειώθηκε σημαντική αύξηση των περιπτώσεων που σχετίζονται με deepfake
Οι απάτες ποικίλουν ανά τομέα: στον τομέα της καταναλωτικής πίστης αντιπροσωπεύουν σχεδόν το 12% του συνόλου των περιπτώσεων απάτης, ακολουθούμενες από τον τομέα των ακινήτων (περίπου 8%) και των πληρωμών (5%).
Αντίθετα, λιγότερες απόπειρες deepfake σημειώνονται σε τομείς όπου τα αναμενόμενα κέρδη είναι χαμηλότερα, όπως η εκπαίδευση.
Έως το τέλος του 2025 θα έχουν «μοιραστεί» στο διαδίκτυο έως και 8 εκατομμύρια deepfakes, από 500.000 το 2023, γεγονός που υποδηλώνει διπλασιασμό του αριθμού κάθε έξι μήνες.
Η εύκολη πρόσβαση σε ισχυρά εργαλεία τεχνητής νοημοσύνης και ο τεράστιος όγκος δεδομένων είναι πιθανώς παράγοντες που συμβάλλουν σε αυτό.
Deepfakes: Τότε και τώρα
Η ανίχνευση των deepfakes γίνεται όλο και πιο δύσκολη, ειδικά στον τομέα του ήχου. Οι πρώτες εκδόσεις συχνά περιείχαν παύσεις καθώς ο χειριστής πληκτρολογούσε τις απαντήσεις. Οι πρόσφατες εκδόσεις των γλωσσικών μοντέλων εξαλείφουν αυτά τα ελαττώματα, παράγοντας ομαλή και φυσική ομιλία.
Ο αριθμός των συστημάτων γενετικής τεχνητής νοημοσύνης (GenAI) που είναι ικανά να κλωνοποιούν φωνή και βίντεο έχει αυξηθεί ραγδαία, από περίπου 100-150 συστήματα πέρυσι σε περισσότερα από 500 σήμερα.
Μεγάλο μέρος αυτής της αύξησης οφείλεται σε εργαλεία ανοιχτού κώδικα που είναι πιο εύκολα προσβάσιμα, φθηνότερα στη χρήση και απαιτούν λιγότερα δεδομένα για τη δημιουργία εξαιρετικά πειστικών fake αρχείων.
Αντίθετα, τα deepfake βίντεο εξακολουθούν να παρουσιάζουν κάποια προφανή ελαττώματα. Ωστόσο, η τεχνολογία εξελίσσεται με γρήγορους ρυθμούς.
Στους χώρους εργασίας
Το κύμα εξαπάτησης που βασίζεται στην τεχνητή νοημοσύνη διεισδύει πλέον και στους χώρους εργασίας ακόμα και στις διαδικασίες πρόσληψης, με ορισμένες εκτιμήσεις να υποδηλώνουν ότι έως το 2028, ένα στα τέσσερα προφίλ υποψηφίων παγκοσμίως θα μπορούσε να είναι ψεύτικο.
Deepfake υποψήφιοι εργαζόμενοι υποβάλλουν αιτήσεις για θέσεις που συνήθως αφορούν τηλεργασία, κατασκευάζοντας ψεύτικές ταυτότητες, ψεύτικα βιογραφικά, ακόμα και ψεύτικες φωτογραφίες και βίντεο. Μάλιστα, συμμετέχουν ακόμα και σε real-time συνεντεύξεις πρόσληψης μέσω τηλεδιάσκεψης, χωρίς κανείς να μπορεί να διακρίνει. Στόχος τους είναι να προσληφθούν και να αποκτήσουν, σε πρώτο στάδιο, πρόσβαση στο οικοσύστημα της επιχείρησης, μέσα από εταιρικούς υπολογιστές, εφαρμογές επαλήθευσης κωδικών κλπ. Το επόμενο βήμα τους είναι να αποκτήσουν πρόσβαση σε ευαίσθητα δεδομένα και υποδομές.
Είναι πολλά τα λεφτά…
Το ετήσιο κόστος του κυβερνοεγκλήματος σε παγκόσμιο επίπεδο εκτιμάται ότι θα φτάσει τα 10,5 τρισεκατομμύρια δολάρια έως το 2025, από 3 τρισεκατομμύρια δολάρια το 2015.
Οι παραδοσιακές απάτες που χρησιμοποιούν κωδικούς μιας χρήσης (OTP) και phishing εξακολουθούν να υπάρχουν, αλλά τα deepfakes σημειώνουν ραγδαία αύξηση.
Καθώς η απάτη γίνεται όλο και πιο εξελιγμένη, οι παραδοσιακοί έλεγχοι ταυτότητας, όπως η σάρωση εγγράφων ή ο έλεγχος σε πραγματικό χρόνο, δεν είναι πλέον επαρκείς.
Η επαλήθευση πρέπει να εξελιχθεί σε πολυεπίπεδες ψηφιακές δομές που συνδυάζουν βιομετρικά στοιχεία, δεδομένα συμπεριφοράς και συσκευών, κα.
ο ετήσιο κόστος του κυβερνοεγκλήματος σε παγκόσμιο επίπεδο εκτιμάται ότι θα φτάσει τα 10,5 τρισεκατομμύρια δολάρια
Κάτι αλλάζει
Ενώ οι εταιρείες επανασχεδιάζουν τα τηλεφωνικά τους κέντρα με βάση την αρχή της μηδενικής εμπιστοσύνης, οι τρόποι επικοινωνίας όπως οι τηλεφωνικές κλήσεις και τα email παραμένουν επικίνδυνα ξεπερασμένα.
Πολλά εταιρικά συστήματα εξακολουθούν να βασίζονται στην αναγνώριση φωνής, την αναγνώριση καλούντος και χρήση email ως αποδεικτικά στοιχεία για την αυθεντικοποίηση.
Με τις «τρύπες» στα συστήματα να είναι εμφανείς, ο τρόπος με τον οποίο οι χρηματοπιστωτικές υπηρεσίες καταπολεμούν την απάτη θα αλλάξει ριζικά.
Η ικανότητα των deepfakes να παρακάμπτουν τις παραδοσιακές άμυνες απάτης που βασίζεται στην τεχνητή νοημοσύνη είναι ανησυχητικός.
Όμως, η ίδια τεχνολογία τεχνητής νοημοσύνης που επιτρέπει την απάτη, μπορεί επίσης να χρησιμοποιηθεί εναντίον της.
Οι προηγμένοι «πράκτορες» τεχνητής νοημοσύνης είναι πλέον σε θέση να χαρτογραφούν δίκτυα απάτης, να επισημαίνουν παραποιημένα αρχεία ήχου και βίντεο.
