Η απειλή των deepfake κειμένων
Στην προσπάθεία αναλυτών και ερευνητών να μαντέψουν τι είδους «καμπάνιες χειραγώγησης» θα μπορούσαν να απειλήσουν τις αμερικανικές εκλογές, τα παραποιημένα βίντεο -τα οποία δημιουργούνται με τη χρήση τεχνητής νοημοσύνης, με την επεξεργασία φωτογραφικού αρχείου προσωπικοτήτων και δημιουργώντας εντυπωσιακά ρεαλιστικά αποτελέσματα- βρίσκονταν συχνά στην κορυφή της λίστας.
Αν και η εν λόγω τεχνολογία εξελισσόταν, οι δυνατότητές της για χειραγώγηση ήταν τόσο ανησυχητικές που εταιρείες κολοσσοί και ερευνητικά ινστιτούτα έδωσαν προτεραιότητα στην επεξεργασία και χρηματοδότηση μεθόδων ανίχνευσης. Παράλληλα, οι πλατφόρμες κοινωνικής δικτύωσης ανέπτυξαν ειδικές πολιτικές για αναρτήσεις που περιέχουν «παραποιημένα μέσα», με την ελπίδα να επιτύχουν τη σωστή ισορροπία μεταξύ της διατήρησης της ελεύθερης έκφρασης και της αποτροπής fake news.
Ωστόσο, λίγους μήνες μετά τις εκλογές στις ΗΠΑ, αυτό το κύμα των παραποιημένων βίντεο δεν καταλάγιασε. Αντ’ αυτού, μια άλλη μορφή που δημιουργείται με την τεχνητή νοημοσύνη και «αναδύεται» στο προσκήνιο, είναι πιο δύσκολο να εντοπιστεί και πολύ πιο πιθανό να γίνει μια διαδεδομένη δύναμη στο Διαδίκτυο: τα deepfake κείμενα.
Τον περασμένο μήνα, παρουσιάστηκε το GPT-3, το οποίο ανήκει στις λεγόμενες «γεννήτριες γλωσσών» και χρησιμοποιεί Μηχανική Μάθηση προκειμένου να δημιουργεί κείμενο που να μοιάζει ότι έχει γραφτεί από άνθρωπο. Αρκεί να το «ταΐσεις» με κάποιες βασικές οδηγίες και μπορεί να ολοκληρώσει ένα αρκετά μεγάλο κείμενο.
Αποτελεί το επόμενο επίτευγμα της δημιουργικής γραφής: μια τεχνητή νοημοσύνη που μπορεί να παράγει σοκαριστικά ανθρώπινες (αν και μερικές φορές σουρεαλιστικές) προτάσεις. Καθώς το αποτέλεσμα που παράγει γίνεται όλο και πιο δύσκολο να διακριθεί από τα ανθρώπινα κείμενα, μπορεί κανείς να φανταστεί ένα μέλλον στο οποίο η συντριπτική πλειονότητα του γραπτού περιεχομένου που βλέπουμε στο Διαδίκτυο θα δημιουργείται από μηχανές. Αν συνέβαινε αυτό, ο τρόπος που αντιδρούμε στο περιεχόμενο που μας περιβάλλει θα άλλαζε δραματικά.
Σε αντίθεση με το photosop και παρόμοια προγράμματα επεξεργασίας εικόνας τα deepfake βίντεο ή το GPT-3, είναι διαφορετικά. Εάν χρησιμοποιείται κακόβουλα, δεν υπάρχει αναλλοίωτο πρωτότυπο, καμία πρώτη ύλη που θα μπορούσε να παραχθεί ως βάση σύγκρισης ή αποδεικτικών στοιχείων για έλεγχο. Στις αρχές της δεκαετίας του 2000, ήταν εύκολο να δούμε φωτογραφίες πριν από την ανάρτηση των διασημοτήτων και να συζητήσουμε εάν οι τελευταίες δημιούργησαν μη ρεαλιστικά πρότυπα τελειότητας.
Ωστόσο, τα deepfake κείμενα είναι εύκολο να δημιουργηθούν και να πολλαπλασιαστούν σε μεγάλο βαθμό, προσφέροντας λιγότερες ενδείξεις για τον εντοπισμό τους και δημιουργώντας ένα ολόκληρο ιστό fake news, όπου τα όρια μεταξύ ρεαλισμού και διαδικτυακής πλάνης θα είναι πλέον αδιευκρίνιστα.