search
ΠΕΜΠΤΗ 28.03.2024 19:32
MENU CLOSE

Βιομετρικοί προβληματισμοί στην Ευρώπη

Δημοσιεύτηκε στο ΠΟΝΤΙΚΙ

τεύχος 2191
19-8-2021
24.08.2021 07:00
Biometrics

Είναι αρκετά τα ηθικά και νομικά ζητήματα που προκύπτουν από τη χρήση της τεχνητής νοημοσύνης στην καθημερινότητά μας.

Μάλιστα, οι συγκεκριμένοι προβληματισμοί έχουν φτάσει στην «καρδιά» της Ευρώπης, στην οποία επικρατεί ανησυχία για την προστασία των προσωπικών δεδομένων.

Έτσι, η Επιτροπή Πολιτικών Ελευθεριών του Ε.Κ. έφτασε στο σημείο να ζητήσει με έκθεσή της ισχυρές διασφαλίσεις για τον έλεγχο των αλγορίθμων και των συστημάτων τεχνητής νοημοσύνης που σχετίζονται με τον ευαίσθητο τομέα της απονομής δικαιοσύνης. 

Σύμφωνα με την έκθεση της επιτροπής, οι ευρωβουλευτές φοβούνται ότι τα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να οδηγήσουν σε αποθήκευση ευαίσθητων δεδομένων.

Για τον λόγο αυτόν ζητούν δημοκρατικές εγγυήσεις και λογοδοσία για τη χρήση της τεχνητής νοημοσύνης και προτείνουν την απαγόρευση της χρήσης βάσεων βιομετρικών δεδομένων για δικαστικές υποθέσεις, όπως και την απαγόρευση της τήρησης ιδιωτικών βάσεων δεδομένων αναγνώρισης προσώπου. Η σχετική έκθεση εγκρίθηκε με 36 ψήφους υπέρ, 24 κατά και 6 αποχές.

Επίσης ζητούν να σταματήσει η χρήση των αυτοματοποιημένων συστημάτων αναγνώρισης στους συνοριακούς ελέγχους. «Τα αυτοματοποιημένα συστήματα που βασίζονται στην αναγνώριση δεν πρέπει να χρησιμοποιούνται για τον έλεγχο των συνόρων» επισημαίνει η έκθεση.

Η αναγνώριση προσώπου

Παράλληλα, οι ευρωβουλευτές ανησυχούν ιδιαίτερα για τη χρήση των βιομετρικών δεδομένων για απομακρυσμένη αναγνώριση. Ειδικότερα οι ευρωβουλευτές εκτιμούν ότι οι αυτοματοποιημένες πύλες ελέγχου των συνόρων, που βασίζονται στην αναγνώριση, και το έργο iBorderCtrl (ένα «έξυπνο» σύστημα για την είσοδο ταξιδιωτών στην Ε.Ε.) παρουσιάζουν διάφορα προβλήματα.

Η επιτροπή υπογραμμίζει ότι η τεχνητή νοημοσύνη δεν πρέπει να χρησιμοποιείται για την πρόβλεψη συμπεριφοράς βάσει προηγούμενων ενεργειών ή χαρακτηριστικών ομάδων. Σε σχέση με την αναγνώριση προσώπου, οι ευρωβουλευτές ζητούν μόνιμη απαγόρευση της χρήσης βιομετρικών λεπτομερειών, όπως δακτυλικά αποτυπώματα, DNA ή φωνή για την αναγνώριση ατόμων σε δημόσιους χώρους.

Επιπλέον οι ευρωβουλευτές ζητούν την απαγόρευση της βαθμολόγησης των πολιτών μέσω της τεχνητής νοημοσύνης, υποστηρίζοντας ότι κάτι τέτοιο θα παραβίαζε τις αρχές της βασικής ανθρώπινης αξιοπρέπειας. 

«Η χρήση της τεχνητής νοημοσύνης αυξάνεται ραγδαία και πράγματα που θεωρούσαμε πιθανά μόνο σε βιβλία και ταινίες επιστημονικής φαντασίας – προβλέψιμη αστυνόμευση, μαζική παρακολούθηση με χρήση βιομετρικών δεδομένων – είναι πραγματικότητα σε ορισμένες χώρες. Είμαι ικανοποιημένος που η πλειοψηφία της Επιτροπής Πολιτικών Ελευθεριών αναγνωρίζει τον εγγενή κίνδυνο τέτοιων πρακτικών για τη δημοκρατία μας. Η τεχνική πρόοδος δεν πρέπει ποτέ να επιβαρύνει τα θεμελιώδη δικαιώματα των ανθρώπων» επισήμανε ο εισηγητής της έκθεσης Πέταρ Βιτάνοφ.

Αξίζει να σημειωθεί ότι η σχετική μη νομοθετική έκθεση θα βρεθεί τον Σεπτέμβριο στο «τραπέζι» της Ολομέλειας του Ευρωπαϊκού Κοινοβουλίου, όπου θα συζητηθεί και θα ψηφιστεί.

Οι αντιφάσεις

Η βιομηχανία των βιομετρικών δεδομένων βρίσκεται σε πορεία σύγκρουσης με τους κορυφαίους εμπειρογνώμονες της Ευρώπης για την προστασία δεδομένων. Τόσο ο Ευρωπαίος επόπτης Προστασίας Δεδομένων, που λειτουργεί ως ανεξάρτητος φορέας δεδομένων της Ε.Ε., όσο και το Ευρωπαϊκό Συμβούλιο Προστασίας Δεδομένων, το οποίο βοηθά τις χώρες να εφαρμόζουν με συνέπεια τον κανονισμό GDPR, ζήτησαν πλήρη απαγόρευση της χρήσης τεχνητής νοημοσύνης για την αυτόματη αναγνώριση των ανθρώπων.

«Η απομακρυσμένη βιομετρική ταυτοποίηση σε δημόσια προσβάσιμους χώρους σημαίνει το τέλος της ανωνυμίας σε αυτούς τους χώρους» έγραψαν οι επικεφαλής των δύο σωμάτων, Αντρέα Γέλινεκ και Βόιτσεχ Βιεβιορόφσκι σε κοινή δήλωσή τους στα τέλη Ιουνίου.

Θα πρέπει επίσης να απαγορευτεί η προσπάθεια πρόβλεψης της εθνικότητας, του φύλου, του πολιτικού ή του σεξουαλικού προσανατολισμού των ανθρώπων με την τεχνητή νοημοσύνη.

Όμως τέτοιες δηλώσεις έρχονται αντιμέτωπες με τους προτεινόμενους κανονισμούς της Ε.Ε. για την τεχνητή νοημοσύνη. Οι κανόνες, που παρουσιάστηκαν τον Απρίλιο, αναφέρουν ότι «η απομακρυσμένη βιομετρική ταυτοποίηση» είναι υψηλού κινδύνου, κάτι που σημαίνει ότι επιτρέπεται, αλλά υπόκειται σε αυστηρότερους ελέγχους και περιορισμούς από άλλες χρήσεις της τεχνητής νοημοσύνης.

Οι πολιτικοί σε ολόκληρη την Ε.Ε. θα χρειαστούν χρόνια συζητήσεων για τους κανόνες της τεχνητής νοημοσύνης και η βιομετρική επιτήρηση έχει ήδη γίνει ένα από τα πιο αμφιλεγόμενα ζητήματα. Όταν εγκριθούν, οι κανονισμοί θα καθορίσουν τον τρόπο με τον οποίο παρακολουθούνται εκατοντάδες εκατομμύρια άνθρωποι για τις επόμενες δεκαετίες. Και η συζήτηση αρχίζει τώρα.

Η τεχνολογία ήδη αναπτύσσεται

Η αναγνώριση προσώπου είναι αμφιλεγόμενη εδώ και χρόνια, αλλά η πραγματική ανατροπή στα βιομετρικά δεδομένα είναι να εστιάζουν και σε άλλα μέρη του σώματος του κάθε πολίτη. Σε 27 κράτη – μέλη της Ε.Ε. πολλές εταιρείες αναπτύσσουν βιομετρικές τεχνολογίες που, σε ορισμένες περιπτώσεις, αποσκοπούν στην πρόβλεψη του φύλου, της εθνικότητας των ανθρώπων και στην αναγνώριση των συναισθημάτων τους.

Σε πολλές περιπτώσεις η τεχνολογία αυτή χρησιμοποιείται ήδη στον πραγματικό κόσμο. Ωστόσο η χρήση τεχνητής νοημοσύνης για την εφαρμογή αυτών των ταξινομήσεων μπορεί να είναι επιστημονικά και ηθικά αμφίβολη. Τέτοιες τεχνολογίες υπάρχει κίνδυνος να παραβιάσουν την ιδιωτική ζωή των ανθρώπων ή να κάνουν αυτόματες διακρίσεις σε βάρος τους.

Για παράδειγμα, οι εταιρείες Herta Security και VisionLabs αναπτύσσουν τεχνολογία αναγνώρισης προσώπου για διάφορες χρήσεις και λένε ότι θα μπορούσε να χρησιμοποιηθεί από τις αστυνομικές αρχές και από επιχειρήσεις λιανικής και μεταφορών. Έγγραφα της Herta Security, η οποία εδρεύει στη Βαρκελώνη, αναφέρουν ότι ανάμεσα στους πελάτες της είναι οι αστυνομικές δυνάμεις σε Γερμανία, Ισπανία, Ουρουγουάη, Κολομβία, αθλητικά στάδια, εμπορικά κέντρα, αλυσίδες ξενοδοχείων, όπως τα Marriott και Holiday Inn, αεροδρόμια και καζίνο.

Οι επικριτές επισημαίνουν ότι τόσο η Herta Security όσο και η VisionLabs ισχυρίζονται πως τμήματα των συστημάτων τους μπορούν να χρησιμοποιηθούν για την παρακολούθηση ευαίσθητων χαρακτηριστικών.

«Πολλά από τα συστήματα, ακόμη και αυτά που χρησιμοποιούνται για τον εντοπισμό ανθρώπων, βασίζονται σε αυτές τις δυνητικά πολύ επιβλαβείς ταξινομήσεις και κατηγοριοποιήσεις ως βασική λογική» επισημαίνει η Έλλα Γιακουμπόφσκα, πολιτική σύμβουλος που εξετάζει τα βιομετρικά δεδομένα στην ομάδα υπεράσπισης European Digital Rights. Η ομάδα κάνει εκστρατεία για την απαγόρευση της βιομετρικής επιτήρησης σε όλη την Ευρώπη.

Διαβάστε επίσης:

Παραδόθηκαν στους Ταλιμπάν

Το προλαμβάνειν κρείττον εστί του θεραπεύειν

Τσουρουφλισμένη κυβέρνηση

google_news_icon

Ακολουθήστε το topontiki.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις.

Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, τη στιγμή που συμβαίνουν.

ΡΟΗ ΕΙΔΗΣΕΩΝ

ΕΙΔΗΣΕΙΣ ΔΗΜΟΦΙΛΗ

Το topontiki.gr σέβεται όλες τις απόψεις, αλλά διατηρεί το δικαίωμά του να μην αναρτά υβριστικά σχόλια και διαφημίσεις. Οι χρήστες που παραβιάζουν τους κανόνες συμπεριφοράς θα αποκλείονται. Τα σχόλια απηχούν αποκλειστικά τις απόψεις των αναγνωστών.

ΠΕΜΠΤΗ 28.03.2024 19:31