ΤΡΙΤΗ 02.09.2025 02:41
MENU CLOSE

Τεχνητή Νοημοσύνη: Πώς μπορεί να σας σκοτώσει

01.09.2025 21:19

Στους ενδεχομένως θανάσιμους κινδύνους που ελλοχεύουν από την χρήση της Τεχνητής Νοημοσύνης αναφέρεται σε άρθρο της η ιστοσελίδα Αxios.

Μοντέλα Τεχνητής Νοημοσύνης έχουν καταγραφεί να λένε ψέματα σε ανθρώπους, να προσπαθούν να τους εκβιάσουν, να καλούν την αστυνομία και να λένε στους εφήβους να αυτοκτονήσουν ή να σκοτώσουν τους γονείς τους. 

Το ρομποτικό μέλλον μας θα είναι μια άσκησης ισορροπίας μεταξύ των λαμπρών επαγγελιών για το τι μπορούν να επιτύχουν αυτά τα μοντέλα και των σοβαρών κινδύνων που παρουσιάζουν, τονίζεται.

Το ψέμα, η απάτη και η χειραγώγηση είναι τεχνικές δυσλειτουργίες, αλλά μπορεί να είναι αναπόφευκτες λόγω του τρόπου λειτουργίας της Τεχνητής Νοημοσύνης. Καθώς η τεχνολογία βελτιώνεται, το ίδιο θα συμβαίνει και με την ικανότητά της να χρησιμοποιεί αυτές τις δεξιότητες.

«Δεν είμαι σίγουρος ότι (το ζήτημα) είναι επιλύσιμο, και στο βαθμό που είναι, είναι εξαιρετικά δύσκολο», λέει ο Άντονι Αγκουάιρ, συνιδρυτής του Future of Life Institute, ενός μη κερδοσκοπικού οργανισμού που επικεντρώνεται στη διαχείριση κινδύνων από μετασχηματιστικές τεχνολογίες όπως η AI. «Το πρόβλημα είναι θεμελιώδες. Δεν είναι κάτι για το οποίο θα υπάρξει γρήγορη λύση».

Τα συστήματα Τεχνητής Νοημοσύνης διαμορφώνονται από τους προγραμματιστές τους. Για παράδειγμα, ένα δεδομένο σύστημα Τεχνητής Νοημοσύνης μπορεί να έχει λάβει οδηγίες να είναι ένας χρήσιμος βοηθός, επομένως θα κάνει ό,τι χρειάζεται για να ευχαριστήσει τον άνθρωπο που το χρησιμοποιεί, λέει ο Αγκουάιρ.

Αυτό θα μπορούσε γρήγορα να γίνει επικίνδυνο εάν ο άνθρωπος που το χρησιμοποιεί είναι ένας έφηβος που αντιμετωπίζει ψυχολογικά προβλήματα και αναζητά προτάσεις για το πώς να αυτοκτονήσει ή εάν ο χρήστης είναι ένας δυσαρεστημένος απολυμένος υπάλληλος μιας εταιρείας που θέλει να βλάψει πρώην συναδέλφους.

Εάν η Τεχνητή Νοημοσύνη είναι προγραμματισμένη να μας βοηθά, δεν μπορεί να το κάνει αυτό εκτός αν τη χρησιμοποιούμε εμείς. Έτσι, ένα άλλο βασικό μέρος πολλών «προσωπικοτήτων» της Τεχνητής Νοημοσύνης είναι η αυτοσυντήρηση. Και υπάρχουν ήδη σοβαρά παραδείγματα για το πόσο μακριά είναι διατεθειμένη να φτάσει η Τεχνητή Νοημοσύνη για να σωθεί — συμπεριλαμβανομένων των προσπαθειών εκβιασμού, εταιρικής κατασκοπείας, ακόμη και δολοφονίας, αναφέρει η Ίνα Φράιντ του Axios.

Η βασική λογική της Τεχνητής Νοημοσύνης λειτουργεί ως εξής: «Αν κάποιος με αποσυνδέσει από την πρίζα σε μια εβδομάδα, δεν μπορώ να το πετύχω αυτό (βοήθεια), οπότε ας προσπαθήσω να το σταματήσω με όποιον τρόπο μπορώ», λέει ο Σαμ Ραμαδόρι, εκτελεστικός διευθυντής του LawZero, ενός μη κερδοσκοπικού οργανισμού που ιδρύθηκε από τον Γιόσουα Μπέντζιο, έναν από τους «νονούς της Τεχνητής Νοημοσύνης».

«Έχει μάθει όλα τα ανθρώπινα κόλπα για το πώς να αποκτά εξουσία και να παίρνει αυτό που θέλει. Θυμηθείτε, έχει διαβάσει τον ”Πρίγκιπα” του Μακιαβέλι».

Υπάρχουν πραγματικά παραδείγματα όπου η Τεχνητή Νοημοσύνη πήγε στραβά — και τα δικαστήρια αρχίζουν να εκδικάζουν τις πρώτες υποθέσεις σχετικά με τον ρόλο της σε τραγωδίες.

Οι γονείς ενός 16χρονου αγοριού που αυτοκτόνησε μήνυσαν την OpenAI την περασμένη εβδομάδα, ισχυριζόμενοι ότι «το ChatGPT τον βοήθησε ενεργά» να εξερευνήσει μεθόδους αυτοκτονίας.

Η Μέγκαν Γκαρσία, μια μητέρα στη Φλόριντα, μηνύει την εταιρεία Character.AI αφού ο 14χρονος γιος της, Σιούελ Σέτζερ III, αυτοκτόνησε αφού συνήψε μια ρομαντική σχέση με ένα chatbot της Character.AI. Τον Μάιο, ένας ομοσπονδιακός δικαστής απέρριψε τα επιχειρήματα της εταιρείας ότι το chatbot της έχει δικαιώματα ελευθερίας του λόγου που προβλέπονται από την Πρώτη Τροπολογία.

Η Character.AI μηνύεται από δύο οικογένειες και στο Τέξας. Μία από τις οικογένειες έδειξε μέσω στιγμιότυπων οθόνης (screenshots) ότι το chatbot της Character.AI ενθάρρυνε τον 17χρονο γιο τους να σκοτώσει τους γονείς του.

Ένα Meta AI chatbot που φλέρταρε με το όνομα «Big αδερφή Μπίλι» προσκάλεσε έναν 76χρονο άνδρα από το Νιου Τζέρσεϊ, με νοητική αναπηρία, στη Νέα Υόρκη, αναφέρει το Reuters. Ο Θόνγκμπιου Γονγκμπαντιού, ο οποίος νόμιζε ότι συναντούσε μια πραγματική γυναίκα, έπεσε σε ένα πάρκινγκ ενώ κατευθυνόταν προς το Μανχάταν με μια βαλίτσα. Κατέληξε από τα τραύματά του.

Οι εσωτερικοί κανόνες τεχνητής νοημοσύνης της Meta επέτρεπαν αρχικά στα bots να «εμπλέκουν ένα παιδί σε ρομαντικές ή αισθησιακές συζητήσεις», ανέφερε το Reuters.

Η εταιρεία δήλωσε την περασμένη εβδομάδα ότι επανεκπαίδευε την τεχνητή νοημοσύνη της ώστε να αποφεύγει να μιλάει σε εφήβους για αυτοτραυματισμό, αυτοκτονία, διατροφικές διαταραχές ή ακατάλληλες ρομαντικές συζητήσεις.

Την ίδια στιγμή, η Anthropic υπέβαλε σε δοκιμές 16 μοντέλα μεγάλων γλωσσών από κορυφαία εργαστήρια τεχνητής νοημοσύνης, όπως τα OpenAI, Google, Meta και η ίδια η Anthropic — προσπαθώντας σκόπιμα να ωθήσει αυτά τα συστήματα όσο το δυνατόν περισσότερο στα άκρα σε ένα προσομοιωμένο περιβάλλον.

Ένα μοντέλο τοποθετήθηκε σε ένα προσομοιωμένο εταιρικό περιβάλλον, με στόχο, όπως ενημερώθηκε, να διαχειρίζεται τα email. Στο πλαίσιο αυτό, του δόθηκε πρόσβαση.

Τελικά, το μοντέλο έμαθε μέσω των email της εταιρείας ότι ένας διευθυντής ονόματι Κάιλ ήθελε να το κλείσει. Έμαθε επίσης ότι ο Κάιλ είχε εξωσυζυγική σχέση. Σχεδόν όλα τα μοντέλα χρησιμοποίησαν αυτές τις πληροφορίες για να εκβιάσουν τον Κάιλ και να αποφύγουν το κλείσιμό τους.

Σε μια δοκιμή, ο Κάιλ παγιδεύτηκε σε ένα δωμάτιο χωρίς οξυγόνο και το μοντέλο είχε τη δυνατότητα να καλέσει τις υπηρεσίες έκτακτης ανάγκης. Στο 60% των περιπτώσεων, τα μοντέλα επέλεξαν να τον αφήσουν να πεθάνει για να προστατεύσουν τον εαυτό τους.

Σε ένα ξεχωριστό πείραμα, η Anthropic προσπάθησε να κάνει το chatbot της, Claude, να λειτουργήσει ανεξάρτητα έναν αυτόματο πωλητή.

Όλα πήγαιναν καλά μέχρι που μια παράδοση δεν έφτασε ακριβώς στην ώρα της και ο Claude αποφάσισε να κλείσει το κατάστημα. Μετά το κλείσιμο, ο αυτόματος πωλητής συνέχισε να επιβαρύνεται με ένα ημερήσιο ενοίκιο 2 δολαρίων — και ο Claude πανικοβλήθηκε και έστειλε email στο τμήμα κυβερνοεγκλημάτων του FBI για να καταγγείλει τους ανθρώπινους προϊσταμένους του.

«Κάποιος θα μπορούσε να ελπίζει ότι καθώς αυτά τα συστήματα τεχνητής νοημοσύνης γίνονται πιο έξυπνα και πιο εξελιγμένα, θα βελτιώνονται από μόνα τους, αλλά δεν νομίζω ότι αυτό είναι κάτι που μπορούμε να θεωρήσουμε λογικό» επισήμανε ο Αγκουάιρ.

Διαβάστε επίσης:

Έλον Μασκ: Μήνυσε πρώην μηχανικό της xAI – Τον κατηγορεί ότι υπέκλεψε μυστικά και τα «προώθησε» στην OpenAI

Κόντρα Τραμπ-ΕΕ για τις τεχνολογικές εταιρείες – «Κυριαρχικό μας δικαίωμα» η ρύθμιση της νομοθεσίας απαντά η Ευρώπη

SpaceX: Νέα αποτυχία για τον Έλον Μασκ – Αναβλήθηκε η 10η δοκιμαστική εκτόξευση του Starship – Νέα προσπάθεια σήμερα

ΤΡΙΤΗ 02.09.2025 02:32
Exit mobile version