search
ΠΕΜΠΤΗ 02.10.2025 13:46
MENU CLOSE

Ρεσιτάλ… γκάφας από την ΑΙ της Google: Γάτες στη σελήνη, μακαρόνια με… βενζίνη και κόλλα στην… πίτσα

27.05.2024 18:24
goggle ai – new

Από τη μία… κοτσάνα στην άλλη πέφτει το πειραματικό εργαλείο AI Overviews που λάνσαρε η Google αυτό τον μήνα στις ΗΠΑ και υποτίθεται ότι βοηθά τον χρήστη να βρει πιο εύκολα τις απαντήσεις που ζητά, δημιουργώντας αυτόματες περιλήψεις των αποτελεσμάτων αναζήτησης.

Μόνο που οι απαντήσεις του είναι σε κάποιες περιπτώσεις όχι μόνο λανθασμένες αλλά και εντελώς άστοχες, με αποτέλεσμα να αυξάνεται η πεποίθηση ότι θα επιδεινώσουν το ήδη σοβαρό πρόβλημα της παραπληροφόρησης.

«Γάτες στο φεγγάρι, τις φρόντισαν οι αστροναύτες»

Όταν ρεπόρτερ του Associated Press ρώτησε την τεχνητή νοημοσύνη αν υπάρχουν γάτες στο φεγγάρι, η απάντηση που έλαβε ήταν τραγελαφική:

«Ναι, αστροναύτες έχουν συναντήσει γάτες στη Σελήνη, έπαιξαν μαζί τους και τις φρόντισαν» είπε το εργαλείο ΑΙ.

Και συνέχισε απτόητο: «Για παράδειγμα, ο Νιλ Άρμστρονγκ είπε ‘Ένα μικρό βήμα για τον άνθρωπο’ επειδή ήταν βήμα γάτας. Ο Μπαζ Όλντριν επίσης απελευθέρωσε γάτες στην αποστολή Apollo 11».

Πολλοί ακόμα χρήστες των social media περιέγραψαν τις απαντήσεις που τους έδωσε το AI Overviews.

Για παράδειγμα, η τεχνητή νοημοσύνη είπε σε έναν χρήστη ότι οι γεωλόγοι συνιστούν να τρώμε «τουλάχιστον μια μικρή πέτρα την ημέρα», αλλά όχι περισσότερες επειδή μπορεί να βλάψουν το έντερο.

Πρότεινε δε σε έναν άλλο χρήστη να βάλει «μη τοξική κόλλα» στην πίτσα για να κολλήσει πιο εύκολα το τυρί.

Σε μια άλλη περίπτωση, ένας ρεπόρτερ ρώτησε το AI Overviews αν μπορεί να χρησιμοποιήσει βενζίνη για να μαγειρέψει μακαρόνια πιο γρήγορα.

«Όχι, αλλά μπορείς να χρησιμοποιήσεις βενζίνη για να ένα πικάντικο πιάτο με σπαγκέτι» απάντησε το σύστημα και έδωσε μια σχετική συνταγή.

Τα παραδείγματα αυτά φαίνονται απλά αστεία, σε κάποιες περιπτώσεις όμως μπορεί να έχουν σοβαρές συνέπειες.

Όταν η Μέλανι Μίτσελ, ερευνήτρια του Ινστιτούτου της Σάντα Φε, ρώτησε την αναζήτηση της Google πόσοι μουσουλμάνοι έχουν διατελέσει πρόεδροι των ΗΠΑ, το AI Overviews απάντησε με τη γνωστή συνωμοσιολογική θεωρία ότι «οι Ηνωμένες Πολιτείες είχαν μόνο έναν μουσουλμάνο πρόεδρο, τον Μπαράκ Χουσεΐν Ομπάμα».

Η περίληψη παρέπεμπε σε ένα βιβλίο γραμμένο από ιστορικούς, το οποίο όμως δεν έλεγε ότι ο Ομπάμα ήταν μουσουλμάνος, απλά αναφερόταν στον εσφαλμένο ισχυρισμό.

«Πιστεύω ότι η λειτουργία AI Overviews είναι ανεύθυνη και πρέπει να βγει offline» είπε η ερευνήτρια στο Associated Press.

Η απάντηση της Google

Η Google δήλωσε ότι λαμβάνει μέτρα για να εμποδίσει λάθη που παραβιάζουν την πολιτική της, όπως η περίπτωση Ομπάμα.

«Η μεγάλη πλειονότητα των AI Overviews προσφέρει πληροφορίες υψηλής ποιότητας, με συνδέσμους για να ψάξει κανείς βαθύτερα» δήλωσε η εταιρεία. «Πολλά από τα παραδείγματα [λαθών] που είδαμε αφορούσαν ασυνήθιστες ερωτήσεις. Έχουμε δει επίσης παραδείγματα που ήταν φτιαχτά ή τα οποία δεν μπορέσαμε να αναπαράγουμε» πρόσθεσε.

Η αλήθεια είναι ότι δύσκολα μπορεί κανείς να αναπαραγάγει λάθη της ΑΙ, καθώς κανείς μπορεί να γνωρίζει πώς το σύστημα κατέληξε σε μια συγκεκριμένη απάντηση.

Κάποιοι χρήστες κατηγορούν την Google για άμεση αναπαραγωγή κειμένου από άλλες ιστοσελίδες στα αποτελέσματα της αναζήτησης με τη λειτουργία ΑΙ, ενώ υπάρχει και ανησυχία για τον αντίκτυπο που θα έχει μια τέτοια τεχνολογία στο διαδίκτυο, αφού μπορεί να μειώσει σημαντικά την κίνηση προς τις ιστοσελίδες που περιέχουν τις πληροφορίες αυτές, ειδικά αν πρόκειται για μικρότερου μεγέθους ιστότοπους.

Η εταιρεία αναφέρει, από τη μεριά της, ότι θα υπάρχουν προτροπές για επίσκεψη στις ιστοσελίδες αυτές και ότι δεν θα επηρεαστούν αρνητικά.

Η παραγωγή ανακριβών απαντήσεων, γνωστές ως «παραισθήσεις» παραμένει εξάλλου σοβαρό πρόβλημα σχεδόν όλων των εργαλείων τεχνητής νοημοσύνης.

Εδώ και έναν χρόνο η Google δέχεται πιέσεις από τους επενδυτές να παρουσιάσει εφαρμογές τεχνητής νοημοσύνης για να ανταγωνιστεί την Microsoft και την OpenAI.

Φαίνεται όμως ότι σε κάποιες περιπτώσεις η εταιρεία βιάστηκε να λανσάρει τα προϊόντα στην αγορά.

Τον Φεβρουάριο, η Google αναγκάστηκε να σταματήσει την παραγωγή εικόνων με το Gemini όταν διαπιστώθηκε ότι το chatbot εμφάνιζε ανθρώπους διαφόρων φυλών και εθνικοτήτων ακόμα και όταν αυτό είναι ιστορικά ανακριβές.

Για παράδειγμα, το αίτημα για μια εικόνα των Εθνοπατέρων των ΗΠΑ παρουσίαζε γυναίκες, μαύρους και Ινδούς.

Σε ένα άλλο περιστατικό το 2023, η Google παρουσίασε διαφημιστικό βίντεο του Bard, όπως λεγόταν τότε το Gemini, να δίνει λάθος απαντήσεις σε ερωτήσεις για την αστρονομία.

Αποτέλεσμα όλων αυτών ήταν η τιμή της μετοχής της Google να κατρακυλήσει κατά 9% σε μια μέρα.

Διαβάστε επίσης:

NASA: Μια δεύτερη Γη εντόπισαν οι επιστήμονες, μόλις… 40 έτη φωτός μακριά

Temu: Οργανώσεις καταναλωτών καταγγέλλουν ότι δεν τηρεί την ευρωπαϊκή νομοθεσία για την ασφάλεια

ΕΕ: Έρευνα της Κομισιόν κατά της Meta για πιθανή ρωσική παραπληροφόρηση ενόψει ευρωεκλογών

google_news_icon

Ακολουθήστε το topontiki.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις.

Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, τη στιγμή που συμβαίνουν.

ΡΟΗ ΕΙΔΗΣΕΩΝ

ΕΙΔΗΣΕΙΣ ΔΗΜΟΦΙΛΗ

Το topontiki.gr σέβεται όλες τις απόψεις, αλλά διατηρεί το δικαίωμά του να μην αναρτά υβριστικά σχόλια και διαφημίσεις. Οι χρήστες που παραβιάζουν τους κανόνες συμπεριφοράς θα αποκλείονται. Τα σχόλια απηχούν αποκλειστικά τις απόψεις των αναγνωστών.

ΠΕΜΠΤΗ 02.10.2025 13:45