Deepfakes: Το νέο μεγάλο πρόβλημα μετά τα fake news και ποια η θέση του Pornhub
Η καταπολέμηση των fake news είναι ένα πολύ σοβαρό ζήτημα που απασχολεί τους τελευταίους μήνες τις μεγάλες εταιρείες στον χώρο του Διαδικτύου και φυσικά εμάς τους χρήστες που βαρεθήκαμε να βλέπουμε μπούρδες, οι οποίες διαδίδονται, εξαπατούν και διαμορφώνουν την κοινή γνώμη με πολύ επικίνδυνες συνέπειες. Εκτός, όμως, από τις ψευδείς ειδήσεις, τον τελευταίο καιρό ανθίζει ακόμη ένα πολύ ανησυχητικό φαινόμενο, αυτό των deepfakes.
Τι είναι τα deepfakes
Ο όρος εμφανίστηκε για πρώτη φορά στο Reddit πριν από μερικές εβδομάδες και αναφερόταν σε ένα thread όπου ανέβαιναν επεξεργασμένες εικόνες διασημοτήτων, κυρίως γυναικών, οι οποίες επιδίδονται σε σεξουαλικές πράξεις. Η επεξεργασία ουσιαστικά τοποθετεί το πρόσωπο τους επάνω σε πορνογραφικές εικόνες, videos και GIFs με πολύ μεγάλη ακρίβεια, έτσι ώστε ο χρήστης να νομίζει ότι είναι πραγματικές.
Από τα πρώτα "παιδικά" χρόνια του Internet ήταν συνηθισμένη πρακτική να κυκλοφορούν επεξεργασμένες εικόνες που υποτίθεται ότι απεικόνιζαν διασημότητες σε πορνογραφίες, αλλά ήταν φως φανάρι ότι επρόκειτο για ψεύτικες δημιουργίες και οι χρήστες δεν έτρωγαν τον παπά (ή τον έτρωγαν ανάλογα με τα γούστα του καθενός...). Το πρόβλημα σήμερα, όμως, είναι ότι έχει εξελιχθεί σε τέτοιο βαθμό η τεχνητή νοημοσύνη και τα προγράμματα επεξεργασίας που σχεδόν ο καθένας μπορεί να τοποθετήσει το πρόσωπο οποιουδήποτε σε video, φωτογραφίες, GIFs κλπ.
Πιθανές συνέπειες
Σκεφτείτε, λοιπόν, τι μπορεί να γίνει μέσα στους επόμενους μήνες και να γεμίσουμε με επικεφαλίδες του τύπου "Διέρρευσε το Sex Tape του τάδε" και το θύμα να ψάχνει να βρει το δίκιο του. Σε μια φωτογραφία είναι ίσως λίγο πιο εύκολο να καταλάβεις αν έχει υποστεί επεξεργασία, αλλά όταν μιλάμε για video, ο κόσμος μπορεί να το δεχτεί πιο εύκολα ότι είναι αληθινό.
Αν κυκλοφορήσει ένα τέτοιο video, γνωρίζουμε πολύ καλά ότι δύσκολα εξαφανίζεται και το χειρότερο είναι ότι δεν υπάρχει νομικό πλαίσιο που να καλύπτει το θύμα. Θα μπορούσαμε να πούμε ότι το θύμα επιθυμεί την διαγραφή του video επειδή προσβάλει την ιδιωτικότητα του, αλλά αν σκεφτούμε λίγο καλύτερα, οι πράξεις στις οποίες επιδίδεται δεν είναι δικές του!
Φυσικά, πίσω από αυτές τις επικεφαλίδες θα μπορούν να δράσουν επιτήδειοι για να ξεγελάσουν τους χρήστες με malware, ransomware, κώδικες cryptomining κλπ.
Πως αντέδρασε το Pornhub
Το θέμα σηκώνει πολύ συζήτηση, αλλά τουλάχιστον έχουμε τις πρώτες (σωστές) αντιδράσεις από τα μεγαλύτερα πορνογραφικά δίκτυα στον κόσμο, όπως για παράδειγμα το Pornhub, το οποίο ανακοίνωσε ότι απαγορεύει και διαγράφει όλα τα deepfake videos που έχουν ανέβει στην πλατφόρμα της χωρίς την συγκατάθεση των πρωταγωνιστών με τον ίδιο τρόπο που μπλοκάρει το "πορνό εκδίκησης"
Για να αφήσουμε στην άκρη την πορνογραφία, ας αναλογιστούμε πόσο πιο ανησυχητικά θα μπορούσαν να γίνουν τα πράγματα με την εμφάνιση του προσώπου κάποιου σε πιο σοβαρές περιπτώσεις όπως π.χ στην εξέταση video - αποδεικτικού στοιχείου για κάποιο έγκλημα. Θα μπορούσε να είναι ένα ενδιαφέρον σενάριο για κάποιο μελλοντικό επεισόδιο στο Black Mirror...