Η OpenAI παρουσίασε πρόσφατα το εργαλείο AI παραγωγής βίντεο που ονομάζεται «Sora» για τους χρήστες ChatGPT Plus και Pro. Αλλά δεν είναι το πρώτο του είδους του εργαλείο, καθώς αρκετά εργαλεία AI μπορούν να κάνουν το ίδιο κόλπο χρησιμοποιώντας AI. Καθώς η αγορά για τη δημιουργία AI video αναπτύσσεται καθημερινά, μπορεί σύντομα να γίνει πρόκληση η ανίχνευση ψεύτικων ή AI-παραγόμενων βίντεο στο Διαδίκτυο. Για να το καταπολεμήσει αυτό, η Meta εισήγαγε το εργαλείο υδατογράφησης που ονομάζεται «Meta Video Seal». Αυτό το εργαλείο εφαρμόζει ένα αόρατο υδατογράφημα στα video που παράγονται με Τεχνητή Νοημοσύνη.
Σύμφωνα με τη Meta, το νέο εργαλείο υδατογράφησης με νευρωνικό σύστημα «Video Seal», προσθέτει ένα αόρατο υδατογράφημα σε ένα βίντεο που παράγεται από τεχνητή νοημοσύνη και μπορεί να ενσωματωθεί στο video χωρίς να επηρεάζει την εμφάνιση του. Το Video Seal μπορεί επίσης να προσθέσει ένα κρυφό μήνυμα σε βίντεο, το οποίο μπορεί αργότερα να ανιχνευθεί για τον εντοπισμό της πηγής του. Αυτό που κάνει το «Meta Video Seal» ξεχωριστό είναι η ικανότητά του να αντέχει στις συνήθεις προσπάθειες επεξεργασίας βίντεο, συμπεριλαμβανομένων των αλγορίθμων θόλωσης, περικοπής ή συμπίεσης, για ευκολότερο διαμοιρασμό στο Διαδίκτυο. Αυτό σημαίνει ότι αν κάποιος επεξεργαστεί το βίντεο που περιέχει το υδατογράφημα από το Meta Video Seal, το υδατογράφημα θα παραμείνει άθικτο, βοηθώντας στην επαλήθευση της αυθεντικότητας και της πηγής του.
Η Meta μοιράζεται αυτό το εργαλείο με ελεύθερη άδεια χρήσης, μαζί με μια ερευνητική εργασία, εκπαίδευση και κώδικα εξαγωγής συμπερασμάτων. Υπάρχει επίσης ένα διαδραστικό demo διαθέσιμο για να δοκιμάσει ο καθένας το μοντέλο. Η Meta αναφέρει ότι «ενώ τα εργαλεία τεχνητής νοημοσύνης μπορούν να βοηθήσουν να έρθει ο κόσμος πιο κοντά, είναι σημαντικό να εφαρμόσουμε διασφαλίσεις για να μετριάσουμε τους κινδύνους της μίμησης, της χειραγώγησης και άλλων μορφών κακής χρήσης που μπορούν να υπονομεύσουν τα οφέλη τους. Η μεταγενέστερη υδατογράφηση είναι ένα κρίσιμο βήμα προς την κατεύθυνση της καλύτερης ιχνηλασιμότητας για το περιεχόμενο και τα μοντέλα τεχνητής νοημοσύνης».
Με το Video Seal, η Meta στοχεύει να καταστήσει δύσκολο για τους κακοποιούς να κάνουν κατάχρηση της AI για να μιλούν για ψεύτικο περιεχόμενο και πληροφορίες. Παρότι η Τεχνητή Νοημοσύνη μπορεί να κάνει εκπληκτικά πράγματα και να μας διευκολύνει, είναι επίσης σημαντικό να υπάρχουν ορισμένες προστατευτικές δικλείδες για να διασφαλιστεί ότι οι σωστές πληροφορίες είναι διαθέσιμες σε όλους.
[via]