Ο Αντρέι Ντορόνιτσεφ ανησύχησε πέρυσι όταν είδε ένα βίντεο στα μέσα κοινωνικής δικτύωσης που φαινόταν να δείχνει τον πρόεδρο της Ουκρανίας να παραδίδεται στη Ρωσία.

Το βίντεο απομυθοποιήθηκε γρήγορα ως συνθετικά δημιουργημένο deepfake, αλλά για τον Doronichev, ήταν ένα ανησυχητικό στοιχείο. Φέτος, οι φόβοι του πλησίασαν πιο κοντά στην πραγματικότητα, καθώς οι εταιρείες άρχισαν να ανταγωνίζονται για να βελτιώσουν και να απελευθερώσουν την τεχνολογία τεχνητής νοημοσύνης παρά τον όλεθρο που θα μπορούσε να προκαλέσει.

Το Generative AI είναι πλέον διαθέσιμο σε οποιονδήποτε και είναι ολοένα και πιο ικανό να ξεγελά τους ανθρώπους με κείμενο, ήχο, εικόνες και βίντεο που φαίνεται να έχουν συλληφθεί και καταγραφεί από ανθρώπους. Ο κίνδυνος της κοινωνικής ευπιστίας έχει πυροδοτήσει ανησυχίες σχετικά με την παραπληροφόρηση, την απώλεια εργασίας, τις διακρίσεις, την ιδιωτικότητα και την ευρεία δυστοπία.

Για επιχειρηματίες όπως ο Doronichev, έχει γίνει επίσης μια επιχειρηματική ευκαιρία. Περισσότερες από δώδεκα εταιρείες προσφέρουν πλέον εργαλεία για να προσδιορίσουν εάν κάτι κατασκευάστηκε με τεχνητή νοημοσύνη, με ονόματα όπως Sensity AI (deepfake εντοπισμός), Fictitious.AI (ανίχνευση λογοκλοπής) και Originality.AI (επίσης λογοκλοπή).

Ο Doronichev, ένας Ρώσος ντόπιος, ίδρυσε μια εταιρεία στο Σαν Φρανσίσκο, Optic, για να βοηθήσει στον εντοπισμό συνθετικού ή πλαστού υλικού – για να είναι, σύμφωνα με τα λόγια του, «μια μηχανή ακτίνων Χ αεροδρομίου για ψηφιακό περιεχόμενο».

Τον Μάρτιο, αποκάλυψε έναν ιστότοπο όπου οι χρήστες μπορούν να ελέγχουν τις εικόνες για να δουν αν έχουν δημιουργηθεί από πραγματικές φωτογραφίες ή τεχνητή νοημοσύνη. Εργάζεται σε άλλες υπηρεσίες για την επαλήθευση βίντεο και ήχου.

«Η αυθεντικότητα του περιεχομένου θα γίνει μείζον πρόβλημα για την κοινωνία στο σύνολό της», δήλωσε ο Doronichev, ο οποίος ήταν επενδυτής για μια εφαρμογή ανταλλαγής προσώπων που ονομάζεται Reface. «Μπαίνουμε στην εποχή των φτηνών ψεύτικων». Δεδομένου ότι δεν κοστίζει πολύ η παραγωγή ψεύτικο περιεχόμενο, είπε, μπορεί να γίνει σε μεγάλη κλίμακα.

Η συνολική αγορά παραγωγής τεχνητής νοημοσύνης αναμένεται να ξεπεράσει τα 109 δισεκατομμύρια δολάρια έως το 2030, σημειώνοντας αύξηση 35,6% ετησίως κατά μέσο όρο μέχρι τότε, σύμφωνα με την εταιρεία ερευνών αγοράς Grand View Research. Οι επιχειρήσεις που επικεντρώνονται στην ανίχνευση της τεχνολογίας αποτελούν ένα αυξανόμενο μέρος του κλάδου.

Μήνες αφότου δημιουργήθηκε από έναν φοιτητή του Πανεπιστημίου του Πρίνστον, το GPTZero ισχυρίζεται ότι περισσότεροι από 1 εκατομμύριο άνθρωποι έχουν χρησιμοποιήσει το πρόγραμμά του για να συντάξουν κείμενο που δημιουργείται από υπολογιστή. Το Reality Defender ήταν μία από τις 414 εταιρείες που επιλέχθηκαν από 17.000 αιτήσεις που θα χρηματοδοτηθούν από τον startup accelerator Y Combinator αυτό το χειμώνα.

Η Copyleaks συγκέντρωσε 7,75 εκατομμύρια δολάρια πέρυσι εν μέρει για να επεκτείνει τις υπηρεσίες της κατά της λογοκλοπής σε σχολεία και πανεπιστήμια, ώστε να ανιχνεύουν την τεχνητή νοημοσύνη στην εργασία των μαθητών. Ο Sentinel, οι ιδρυτές του οποίου ειδικεύονταν στην ασφάλεια στον κυβερνοχώρο και στον πόλεμο πληροφοριών για το Βρετανικό Βασιλικό Ναυτικό και το ΝΑΤΟ, έκλεισε έναν κύκλο 1,5 εκατομμυρίων δολαρίων το 2020, ο οποίος υποστηρίχθηκε εν μέρει από έναν από τους ιδρυτές μηχανικούς του Skype για να βοηθήσει στην προστασία των δημοκρατιών από τα deepfakes και άλλα κακόβουλα συνθετικά μέσα.

Μεγάλες εταιρείες τεχνολογίας εμπλέκονται επίσης: η FakeCatcher της Intel ισχυρίζεται ότι είναι σε θέση να αναγνωρίζει βαθιά ψεύτικα βίντεο με ακρίβεια 96%, εν μέρει αναλύοντας pixel για ανεπαίσθητα σημάδια ροής αίματος σε ανθρώπινα πρόσωπα.

Εντός της ομοσπονδιακής κυβέρνησης, η Defense Advanced Research Projects Agency σχεδιάζει να δαπανήσει σχεδόν 30 εκατομμύρια δολάρια φέτος για να τρέξει το Semantic Forensics, ένα πρόγραμμα που αναπτύσσει αλγόριθμους για να ανιχνεύει αυτόματα τα deepfakes και να προσδιορίζει αν είναι κακόβουλα.

Ακόμη και το OpenAI, το οποίο υπερπλήρωσε την έκρηξη της AI όταν κυκλοφόρησε το εργαλείο ChatGPT στα τέλη του περασμένου έτους, εργάζεται σε υπηρεσίες ανίχνευσης. Η εταιρεία, με έδρα το Σαν Φρανσίσκο, παρουσίασε ένα δωρεάν εργαλείο τον Ιανουάριο για να βοηθήσει στη διάκριση μεταξύ κειμένου που συντίθεται από άνθρωπο και κειμένου γραμμένου από τεχνητή νοημοσύνη.

Το OpenAI τόνισε ότι ενώ το εργαλείο ήταν μια βελτίωση σε προηγούμενες επαναλήψεις, εξακολουθεί να μην είναι «πλήρως αξιόπιστο». Το εργαλείο αναγνώρισε σωστά το 26% του τεχνητά δημιουργημένου κειμένου, αλλά επισήμανε ψευδώς το 9% του κειμένου από ανθρώπους ως δημιουργημένο από υπολογιστή.

Το εργαλείο OpenAI επιβαρύνεται με κοινά ελαττώματα στα προγράμματα ανίχνευσης: Αγωνίζεται με σύντομα κείμενα και γραφή που δεν είναι στα αγγλικά. Σε εκπαιδευτικά περιβάλλοντα, εργαλεία ανίχνευσης λογοκλοπής, όπως το TurnItIn, έχουν κατηγορηθεί για ανακριβή ταξινόμηση δοκιμίων που γράφτηκαν από μαθητές ως δημιουργημένα από chatbots.

Τα εργαλεία ανίχνευσης υστερούν εγγενώς σε σχέση με την τεχνολογία παραγωγής που προσπαθούν να ανιχνεύσουν. Μέχρι τη στιγμή που ένα αμυντικό σύστημα είναι σε θέση να αναγνωρίσει το έργο ενός νέου chatbot ή μιας νέας συσκευής δημιουργίας εικόνων, όπως το Google Bard ή το Midjourney, οι προγραμματιστές έχουν ήδη δημιουργήσει μια νέα επανάληψη που μπορεί να αποφύγει αυτήν την άμυνα. Η κατάσταση έχει περιγραφεί ως μια κούρσα εξοπλισμών ή μια σχέση ιού-αντιιού όπου το ένα γεννά το άλλο, ξανά και ξανά.

«Όταν το Midjourney κυκλοφορεί το Midjourney 5, το πυροβόλο όπλο μου σβήνει και αρχίζω να δουλεύω για να προλάβω – και ενώ το κάνω αυτό, εργάζονται στο Midjourney 6», είπε ο Hany Farid, καθηγητής επιστήμης υπολογιστών στο Πανεπιστήμιο. από την Καλιφόρνια, στο Μπέρκλεϋ, ο οποίος ειδικεύεται στην ψηφιακή εγκληματολογία και ασχολείται επίσης με τη βιομηχανία ανίχνευσης τεχνητής νοημοσύνης. «Είναι ένα εγγενώς αντίπαλο παιχνίδι όπου καθώς εργάζομαι στον ανιχνευτή, κάποιος φτιάχνει μια καλύτερη ποντικοπαγίδα, ένα καλύτερο συνθεσάιζερ».

Παρά τη συνεχή κάλυψη, πολλές εταιρείες έχουν δει ζήτηση για ανίχνευση τεχνητής νοημοσύνης από σχολεία και εκπαιδευτικούς, δήλωσε ο Τζόσουα Τάκερ, καθηγητής πολιτικής στο Πανεπιστήμιο της Νέας Υόρκης και συνδιευθυντής του Κέντρου Κοινωνικών Μέσων και Πολιτικής. Αμφισβήτησε εάν μια παρόμοια αγορά θα εμφανιζόταν πριν από τις εκλογές του 2024.

«Θα δούμε ένα είδος παράλληλης πτέρυγας αυτών των εταιρειών να αναπτύσσεται για να βοηθήσει στην προστασία των πολιτικών υποψηφίων, ώστε να μπορούν να γνωρίζουν πότε στοχοποιούνται από τέτοιου είδους πράγματα», είπε.

Οι ειδικοί είπαν ότι το βίντεο που δημιουργήθηκε συνθετικά ήταν ακόμα αρκετά αδέξιο και εύκολο να αναγνωριστεί, αλλά ότι η κλωνοποίηση ήχου και η δημιουργία εικόνας ήταν και τα δύο πολύ προηγμένα. Ο διαχωρισμός του πραγματικού από το ψεύτικο θα απαιτήσει τακτικές ψηφιακής εγκληματολογίας, όπως αντίστροφες αναζητήσεις εικόνων και παρακολούθηση διευθύνσεων IP.

Τα διαθέσιμα προγράμματα ανίχνευσης δοκιμάζονται με παραδείγματα που είναι «πολύ διαφορετικά από το να πηγαίνουν στην άγρια ​​φύση, όπου οι εικόνες που έχουν κάνει το γύρο και έχουν τροποποιηθεί, περικοπεί και σμικρύνεται και διακωδικοποιούνται και σχολιάζονται και ένας Θεός ξέρει τι άλλο τους έχει συμβεί». είπε ο Φαρίντ.

«Αυτό το ξέπλυμα περιεχομένου το καθιστά δύσκολο έργο», πρόσθεσε.

Η Content Authenticity Initiative, μια κοινοπραξία 1.000 εταιρειών και οργανισμών, είναι ένας όμιλος που προσπαθεί να καταστήσει προφανή τη δημιουργία τεχνολογίας από την αρχή. (Ηγείται από την Adobe, με μέλη όπως οι New York Times και παίκτες τεχνητής νοημοσύνης όπως το Stability AI.) Αντί να συνδυάσει την προέλευση μιας εικόνας ή ενός βίντεο αργότερα στον κύκλο ζωής της, η ομάδα προσπαθεί να καθιερώσει πρότυπα που θα εφαρμόζουν ανιχνεύσιμα διαπιστευτήρια στην ψηφιακή εργασία κατά τη δημιουργία.

Η Adobe είπε την περασμένη εβδομάδα ότι η τεχνολογία παραγωγής Firefly θα ενσωματωθεί στο Google Bard, όπου θα επισυνάψει «διατροφικές ετικέτες» στο περιεχόμενο που παράγει, συμπεριλαμβανομένης της ημερομηνίας δημιουργίας μιας εικόνας και των ψηφιακών εργαλείων που χρησιμοποιούνται για τη δημιουργία της.

Ο Jeff Sakasegawa, ο αρχιτέκτονας εμπιστοσύνης και ασφάλειας στην Persona, μια εταιρεία που βοηθά στην επαλήθευση της ταυτότητας του καταναλωτή, είπε ότι οι προκλήσεις που θέτει η τεχνητή νοημοσύνη μόλις άρχισαν.

«Το κύμα δημιουργεί ορμή», είπε. «Κατευθύνεται προς την ακτή. Δεν νομίζω ότι έχει τρακάρει ακόμα».

Αυτό το άρθρο δημοσιεύθηκε αρχικά στους New York Times.

Από news