13/11/2018 03:45:37

Νέα πεδία δόξας για την παραπληροφόρηση

Νέα πεδία δόξας για την παραπληροφόρηση - Media

 

Κατασκευάστηκε ακόμη και βίντεο με ψεύτικη ομιλία του Ομπάμα.

«Η τεχνολογία κάνει θαύματα» είπε ο Νεύτωνας. Φυσικά, ο Νεύτωνας ποτέ δεν είπε κάτι τέτοιο και η πρόταση αυτή είναι κατά μία έννοια ψευδής. Δεν είναι η μοναδική. Πόσα και πόσα αποφθέγματα διάσημων κατασκευάστηκαν  από τρίτους και κυκλοφόρησαν στο «χάος» του διαδικτύου, αλλά και πόσα άλλα που κυκλοφορούν από στόμα σε στόμα δεν ανήκουν στην πραγματικότητα σ’ εκείνους στους οποίους αποδίδονται.

Σε κανέναν δεν αρέσει να «βάζουν λόγια» στο στόμα του. Ο τάδε είπε αυτό, ο δείνα είπε το άλλο και η παραπληροφόρηση πάει «σύννεφο». Τι γίνεται όμως όταν το κάνει η τεχνολογία και μάλιστα ανεξέλεγκτα; Και τι γίνεται όταν υποστηρίζεται από εικόνα και ήχο;

Η εξέλιξη της τεχνολογίας μπορεί να οδηγήσει σε διαφορετικά μονοπάτια από αυτά που φανταζόμαστε. Ένας ερευνητής κατάφερε να δημιουργήσει ένα ψεύτικο βίντεο με δήθεν ομιλία του πρώην προέδρου των ΗΠΑ, Μπαράκ Ομπάμα, και το παρουσίασε στο διεθνές τεχνολογικό συνέδριο TED 2018 που έγινε στο Βανκούβερ.

Το βίντεο δείχνει μια ψηφιακή εκδοχή του πρώην ηγέτη των ΗΠΑ η οποία συγχρονίζεται με μια ηχογράφηση. Ωστόσο, τα όσα λέγονται στην ηχογράφηση αυτή δεν ανήκουν στον πρώην πρόεδρο. Οι ειδικοί άλλωστε προειδοποιούν ότι η συγκεκριμένη τεχνολογία θα μπορούσε να προκαλέσει μια «πολιτική κρίση».

Ο δημιουργός του βίντεο και του τεχνολογικού εργαλείου που μετατρέπει τις ηχογραφήσεις σε ρεαλιστικά βίντεο, δρ Σουπάσορν Σουγατζανάκορν αναγνώρισε ότι υπάρχει «πιθανότητα κακής χρήσης» του εργαλείου. Αλλά πρόσθεσε ότι η τεχνολογία μπορεί να γίνει μια δύναμη για καλό σκοπό.

Ο Σουγατζανάκορν, ο οποίος είναι μηχανικός ηλεκτρονικών υπολογιστών, εργάζεται πλέον για το τμήμα Brain (Εγκέφαλος) της Google. Ετοιμάζει επίσης ένα εργαλείο για την ανίχνευση πλαστών βίντεο και φωτογραφιών για λογαριασμό του Ιδρύματος Τεχνητής Νοημοσύνης.

Ο κίνδυνος

Ο δρ Σουγατζανάκορν και οι συνάδελφοί του Στιβ Σιτζ και Ίρα Κιμελμάτσερ-Σίλτζερμαν από το Πανεπιστήμιο της Ουάσιγκτον, δημοσίευσαν μια έρευνα τον Ιούλιο του 2017, όπου περιγράφουν πώς δημιούργησαν τον ψεύτικο Ομπάμα. Ειδικότερα, ανέπτυξαν έναν αλγόριθμο που έδωσε ήχο και τον μετέφεραν σε ένα 3D μοντέλο του προσώπου του πρώην προέδρου.

Η εργασία ολοκληρώθηκε από ένα νευρωνικό δίκτυο, χρησιμοποιώντας 14 ώρες ομιλιών του Ομπάμα και συνδυάζοντας τα δεδομένα πάνω από ένα βασικό σχήμα του στόματός του. Ο δρ Σουγατζανάκορν αναγνώρισε ότι τα «ψεύτικα βίντεο μπορούν να προκαλέσουν μεγάλες ζημιές» και ότι είναι απαραίτητο ένα ηθικό πλαίσιο.

«Η αντίδραση στο έργο μας ήταν ανάμεικτη. Άνθρωποι, όπως οι γραφίστες, πίστευαν ότι ήταν ένα εξαιρετικό εργαλείο, αλλά ήταν επίσης πολύ τρομακτικό για άλλους ανθρώπους», δήλωσε στο BBC.

Πολιτική κρίση

Ένα τέτοιο τεχνολογικό εργαλείο θα μπορούσε να προσφέρει στους μαθητές της ιστορίας την ευκαιρία να συναντηθούν και να συζητήσουν με τα θύματα του Ολοκαυτώματος, όπως ανέφερε ο ερευνητής. Ένα άλλο παράδειγμα θα ήταν η δημιουργία ειδώλων των νεκρών συγγενών για κάποιους ανθρώπους, πρόσθεσε.

Οι ειδικοί εξακολουθούν να ανησυχούν ότι η τεχνολογία θα μπορούσε να δημιουργήσει νέους τύπους προπαγάνδας και ψευδείς αναφορές.

«Οι ψεύτικες ειδήσεις (fake news) τείνουν να διαδίδονται ταχύτερα απ’ ότι οι πραγματικές ειδήσεις, καθώς είναι καινούργιες και επιβεβαιώνουν τις ήδη υπάρχουσες προκαταλήψεις», τόνισε ο ανώτερος ερευνητής στο Διαδικτυακό Ινστιτούτο της Οξφόρδης, δρ Μπέρνι Χόγκαν. Στη συνέχεια, πρόσθεσε: «Βλέποντας κάποιον να φτιάχνει ψεύτικες ειδήσεις με πραγματικές φωνές και πρόσωπα, όπως φαίνεται στο πρόσφατο ζήτημα για την πλαστότητα, θα οδηγήσει πιθανότατα σε μια πολιτική κρίση με συναφείς εκκλήσεις για περιορισμό - ρύθμιση της τεχνολογίας».

Το ζήτημα της πλαστότητας «Deepfakes» αναφέρεται στην πρόσφατη διαμάχη σχετικά με ένα εύχρηστο εργαλείο λογισμικού που σαρώνει τις φωτογραφίες και στη συνέχεια τις χρησιμοποιεί για να αντικαταστήσει τα χαρακτηριστικά ενός ατόμου με ένα άλλο. Έχει χρησιμοποιηθεί για να δημιουργήσει εκατοντάδες πορνογραφικά βίντεο κλιπ με πρόσωπα διασημοτήτων, τα οποία στην πραγματικότητα δεν συμμετείχαν σε αυτά.

Ο δρ Σουγατζανάκορν σημείωσε ότι αν και τα ψεύτικα βίντεο είναι ένα νέο φαινόμενο, είναι σχετικά εύκολο να εντοπιστεί το αν είναι πλαστά.

«Στα ψεύτικα βίντεο είναι πιο εύκολο να επιβεβαιωθεί η ύπαρξη ψεύτικων φωτογραφιών, επειδή είναι δύσκολο να φτιάξουν τέλεια όλα τα καρέ σε ένα βίντεο», επισήμανε στο BBC.

Επίσης, ανέφερε ότι τα δόντια και οι γλώσσες των προσώπων είναι δύσκολο να μοντελοποιηθούν και θα μπορούσαν να χρειαστούν μια δεκαετία δουλειάς για να τα φτιάξουν όσοι επιθυμούν.

Τέλος, αμφισβήτησε το γεγονός ότι οι δημιουργοί ψεύτικων ειδήσεων θα έφτιαχναν ποτέ τέτοια σύνθετα βίντεο, καθώς όπως υποστήριξε, «μπορούν απλώς να γράψουν ψεύτικες ιστορίες» και άρα είναι περιττός κόπος γι’ αυτούς η δημιουργία τους.

ΣΧΟΛΙΑ

Το "Π" σέβεται όλες τις απόψεις, αλλά διατηρεί το δικαίωμά του να μην αναρτά υβριστικά σχόλια και διαφημίσεις. Τα σχόλια απηχούν αποκλειστικά τις απόψεις των αναγνωστών.