19/08/2019 10:13:06
8.7.2019 / ΥΠΑΤΙΑ ΚΟΚΚΙΝAΚΗ
Δημοσιεύτηκε στο ΠΟΝΤΙΚΙ, τεύχος 2080 στις 4-7-2019

Νέα έρευνα «καίει» την Google

Νέα έρευνα «καίει» την Google - Media

 

Αποκαλύπτεται καινούρια πολιτική ειδήσεων εν όψει των εκλογών του 2020

Κυκλοφόρησε μια νέα δημοσιογραφική έρευνα από το Project Veritas για την Google, που περιλαμβάνει βίντεο με ανώτερο στέλεχος της εταιρείας, έγγραφα που έχουν διαρρεύσει και μαρτυρία από πηγή της Google. Η έρευνα αποκαλύπτει τα σχέδια του διαδικτυακού κολοσσού να επηρεάσει το αποτέλεσμα των αμερικανικών εκλογών του 2020 και να «αποτρέψει» την επόμενη «κατάσταση α λα Τραμπ».

Η έρευνα περιλαμβάνει βίντεο από την υπάλληλο της Google και υπεύθυνη του τομέα καινοτομίας Jen Gennai, η οποία λέει: «Η Ελίζαμπεθ Γουόρεν (σ.σ.: γερουσιαστής των ΗΠΑ) λέει ότι πρέπει να διαλύσουμε τη Google. Σε στυλ “την αγαπώ, αλλά είναι πολύ λάθος”. Αλλά αυτό δεν θα βελτιώσει την κατάσταση, επειδή όλες αυτές οι μικρότερες εταιρείες που δεν έχουν τους ίδιους πόρους με εμάς θα χρεωθούν την αποτροπή της επόμενης κατάστασης Τραμπ».

Η Gennai είναι επικεφαλής του τομέα καινοτομίας της Google, που παρακολουθεί και αξιολογεί την υπεύθυνη υλοποίηση των τεχνολογιών Τεχνητής Νοημοσύνης (A.I.). Στο βίντεο η Gennai υποστηρίζει ότι η Google εργάζεται με επιμέλεια για να «αποτρέψει» να επαναληφθούν τα αποτελέσματα των εκλογών του 2016 στις επικείμενες εκλογές του 2020:

«Όλοι την πατήσαμε το 2016, και πάλι δεν ήμασταν μόνο εμείς, την πάτησε ο κόσμος, την πάτησαν τα ΜΜΕ, όπως όλοι, οπότε φτάσαμε στο σημείο να συζητάμε τι συνέβη εκεί και πώς μπορούμε να το εμποδίσουμε να ξανασυμβεί. Επίσης αναπτύσσουμε τους αλγορίθμους μας με το σκεπτικό: αν το 2016 συνέβαινε ξανά, θα ήταν το αποτέλεσμα διαφορετικό;».

Η τεχνητή νοημοσύνη

Σύμφωνα με πηγή της Google, το Machine Learning Fairness είναι ένα από τα πολλά εργαλεία που χρησιμοποιεί η εταιρεία για την προώθηση μιας πολιτικής ατζέντας.

Τα έγγραφα που διέρρευσαν από πληροφοριοδότη της Google αφορούν το Machine Learning Fairness (Η εκμάθηση της ακεραιότητας στη γλώσσα των μηχανών) και το Algorithmic Unfairness (Αλγοριθμική αδικία), που η επέμβαση στα προϊόντα τεχνητής νοημοσύνης επιδιώκει να επιλύσει.

Σύμφωνα πάντα με τα έγγραφα, ο όρος algorithmic unfairness σημαίνει την άδικη ή προκατειλημμένη αντιμετώπιση ανθρώπων που σχετίζονται με ευαίσθητα χαρακτηριστικά όπως η φυλή, η οικονομική κατάσταση, ο σεξουαλικός προσανατολισμός ή το φύλο μέσα από αλγοριθμικά συστήματα.

«Ο λόγος για τον οποίο ξεκινήσαμε αυτές τις αρχές για την τεχνητή νοημοσύνη είναι επειδή οι άνθρωποι δεν έβαζαν τα όρια, δεν έλεγαν τι είναι δίκαιο και τι είναι ισότιμο, έτσι είπαμε ότι είμαστε μια μεγάλη εταιρεία, εμείς θα το πούμε» επισήμανε η υπεύθυνη καινοτομίας της Google, Jen Gennai.

Η πηγή της Google εξήγησε τον αντίκτυπο της τεχνητής νοημοσύνης και του Machine Learning Fairness: «Θα επαναπροσδιορίσουν μια πραγματικότητα με βάση αυτό που θεωρούν ότι είναι δίκαιο και με βάση αυτό που θέλουν και το τι είναι μέρος της ατζέντας τους».

Οι αξιόπιστες ειδήσεις

Επιπλέον έγγραφα που διέρρευσαν αναφέρουν λεπτομερώς τον τρόπο με τον οποίο η Google ορίζει και δίνει προτεραιότητα στο περιεχόμενο από διάφορους εκδότες ειδήσεων και το πώς τα προϊόντα της διαθέτουν αυτό το περιεχόμενο.

Ένα έγγραφο, που ονομάζεται «Fake News-letter», εξηγεί τον στόχο της Google να έχει ένα «ενιαίο σημείο αλήθειας» στα προϊόντα της. Σύμφωνα με το έγγραφο, η εταιρεία επιδιώκει να περιορίσει τον κίνδυνο των χαμηλής ποιότητας πηγών πληροφόρησης και της παραπληροφόρησης στον τομέα του Google News. Μάλιστα, ετοιμάζεται να δώσει νέο ορισμό στον τομέα αυτόν χρησιμοποιώντας υπάρχοντες υποδομές και εργαλεία.

Σε ένα άλλο έγγραφο, εξηγεί το «Οικοσύστημα Ειδήσεων» («News Ecosystem»), το οποίο περιλαμβάνει «συντακτικές οδηγίες» τις οποίες φαίνεται να καθορίζει και να διαχειρίζεται εσωτερικά η Google. Αυτές οι οδηγίες καθορίζουν τον τρόπο με τον οποίο το περιεχόμενο διανέμεται και εμφανίζεται στην ιστοσελίδα της.

Τα έγγραφα δείχνουν ότι η Google λαμβάνει αποφάσεις για τις ειδήσεις που προωθεί και διανέμει στην ιστοσελίδα της.

Σε μια συνομιλία με τους δημοσιογράφους του Veritas, η υπεύθυνη καινοτομίας Gennai εξήγησε ότι οι «συντηρητικές πηγές» και οι «αξιόπιστες πηγές» δεν συμπίπτουν πάντοτε σύμφωνα με τις συντακτικές πρακτικές της Google.

«Έχουμε δεχθεί καταγγελίες για την ακεραιότητα, ότι είμαστε άδικοι για τους συντηρητικούς επειδή επιλέγουμε αυτό που θεωρούμε αξιόπιστες πηγές ειδήσεων και ότι αυτές οι πηγές δεν συμπίπτουν απαραιτήτως με συντηρητικές πηγές...» τόνισε.

Η πηγή της Google έριξε επιπλέον φως για το πώς το YouTube υποβιβάζει περιεχόμενο από άτομα που επηρεάζουν τις τάσεις στο διαδίκτυο, τους γνωστούς ως influencers:

«Αυτό που έκανε το YouTube ήταν ότι άλλαξε τα αποτελέσματα του μηχανισμού συστάσεων. Έτσι η μηχανή συστάσεων προσπαθεί να πει ότι, αν σας αρέσει το Α, τότε πιθανότατα θα σας αρέσει και το Β. Έτσι προσπαθούν να προτείνουν διαφορετικές πηγές πληροφόρησης, όπως το CNN ή το MSNBC ή ΜΜΕ που έχουν αριστερές πολιτικές τάσεις».

ΣΧΟΛΙΑ

Το "Π" σέβεται όλες τις απόψεις, αλλά διατηρεί το δικαίωμά του να μην αναρτά υβριστικά σχόλια και διαφημίσεις. Τα σχόλια απηχούν αποκλειστικά τις απόψεις των αναγνωστών.