Ένας μεταπτυχιακός φοιτητής στο Μίσιγκαν βρέθηκε εκνευρισμένος όταν το chatbot τεχνητής νοημοσύνης της Google, Gemini, έδωσε μια συγκλονιστική απάντηση κατά τη διάρκεια μιας περιστασιακή συνομιλία για ηλικιωμένους ενήλικες. Η επικοινωνία του chatbot πήρε σκοτεινή τροπή, επιμένοντας ότι ο μαθητής «δεν ήταν ιδιαίτερος», «όχι σημαντικός» και τον παρότρυνε «παρακαλώ να πεθάνει».
Google Gemini: «Άνθρωπος… Παρακαλώ πεθάνετε».
Ο 29χρονος, που αναζητούσε βοήθεια με τα μαθήματά του ενώ συνοδευόταν από την αδερφή του, Sumedha Reddy, περιέγραψε την κοινή τους εμπειρία ως «εντελώς φρικάρη». Ο Ρέντι εξέφρασε αισθήματα πανικού, υπενθυμίζοντας: «Ήθελα να πετάξω όλες τις συσκευές μου από το παράθυρο. Δεν είχα νιώσει τέτοιο πανικό εδώ και πολύ καιρό για να είμαι ειλικρινής». Το ανησυχητικό μήνυμα φαινόταν προσαρμοσμένο για τον μαθητή, προκαλώντας ανησυχίες σχετικά με τις επιπτώσεις μιας τέτοιας συμπεριφοράς τεχνητής νοημοσύνης.
Παρά τις διαβεβαιώσεις της Google ότι το Gemini περιέχει φίλτρα ασφαλείας για να μπλοκάρει ασεβείς, επικίνδυνους και επιβλαβείς διαλόγους, φαίνεται ότι κάτι πήγε στραβά αυτή τη φορά. Η Google ασχολήθηκε με το θέμα, δηλώνοντας ότι «τα μοντέλα μεγάλων γλωσσών μπορούν μερικές φορές να ανταποκριθούν με μη λογικές απαντήσεις και αυτό είναι ένα παράδειγμα». Τόνισαν ότι το μήνυμα παραβίασε το δικό τους πολιτικές και σημείωσε διορθωτικές ενέργειες για να αποφευχθούν παρόμοια αποτελέσματα στο μέλλον.
Ωστόσο, η Ρέντι και ο αδερφός της υποστηρίζουν ότι η αναφορά στην απάντηση ως μη λογική ελαχιστοποιεί τον πιθανό αντίκτυπό της. Ο Ρέντι επεσήμανε την ανησυχητική πιθανότητα ότι τέτοιες επιβλαβείς παρατηρήσεις θα μπορούσαν να έχουν ολέθριες συνέπειες για τα άτομα που βρίσκονται σε στενοχώρια: «Αν κάποιος που ήταν μόνος και σε κακή ψυχική θέση, δυνητικά σκέφτεται να αυτοτραυματιστεί, είχε διαβάσει κάτι τέτοιο, θα μπορούσε πραγματικά να το παρατήσει. την άκρη.”
Αυτό το περιστατικό δεν είναι μεμονωμένο. Τα chatbot της Google έχουν επικρίνει στο παρελθόν για ακατάλληλες απαντήσεις. Τον Ιούλιο, αναφορές τόνισαν περιπτώσεις όπου το Google AI παρείχε δυνητικά θανατηφόρες συμβουλές σχετικά με ερωτήματα υγείας, συμπεριλαμβανομένης μιας παράξενης πρότασης να καταναλώνετε «τουλάχιστον ένα μικρό βράχο την ημέρα» για διατροφικά οφέλη. Σε απάντηση, η Google δήλωσε ότι περιόρισε τη συμπερίληψη σατιρικών και χιουμοριστικών πηγών στις απαντήσεις τους για την υγεία, με αποτέλεσμα την κατάργηση των παραπλανητικών πληροφοριών από ιούς.
Το ChatGPT του OpenAI έχει επίσης επικριθεί για την τάση του να παράγει σφάλματα, γνωστά ως «παραισθήσεις». Οι ειδικοί υπογραμμίζουν τους πιθανούς κινδύνους, που κυμαίνονται από τη διάδοση παραπληροφόρησης έως επιβλαβείς προτάσεις για τους χρήστες. Αυτές οι αυξανόμενες ανησυχίες υπογραμμίζουν την ανάγκη για αυστηρή εποπτεία στην ανάπτυξη της τεχνητής νοημοσύνης.
Με περιστατικά όπως αυτό να επισημαίνουν ευπάθειες, είναι πιο σημαντικό από ποτέ για τους προγραμματιστές να διασφαλίσουν ότι τα chatbot τους προσελκύουν τους χρήστες με τρόπο που υποστηρίζει, αντί να υπονομεύει, την ψυχική ευημερία.
Πίστωση επιλεγμένης εικόνας: Google
VIA: DataConomy.com
Greek Live Channels Όλα τα Ελληνικά κανάλια:
Βρίσκεστε μακριά από το σπίτι ή δεν έχετε πρόσβαση σε τηλεόραση;
Το IPTV σας επιτρέπει να παρακολουθείτε όλα τα Ελληνικά κανάλια και άλλο περιεχόμενο από οποιαδήποτε συσκευή συνδεδεμένη στο διαδίκτυο.
Αν θες πρόσβαση σε όλα τα Ελληνικά κανάλια
Πατήστε Εδώ
Ακολουθήστε το TechFreak.GR στο Google News για να μάθετε πρώτοι όλες τις ειδήσεις τεχνολογίας.