ΑρχικήNewsΤο AI Chatbot σας θα μπορούσε να διαρρέει τα μυστικά σας

Το AI Chatbot σας θα μπορούσε να διαρρέει τα μυστικά σας


Ας μην το ζαχαρώνουμε: κάθε φορά που συνομιλείτε με ένα μοντέλο γλώσσας, βάζετε τα προσωπικά σας δεδομένα στη γραμμή. Σύμφωνα όμως με τον α ΣΥΡΜΑΤΟΣ άρθρο, έγινε πολύ πιο ριψοκίνδυνο. Μια ομάδα ερευνητών από το Πανεπιστήμιο της Καλιφόρνια, στο Σαν Ντιέγκο (UCSD) και το Τεχνολογικό Πανεπιστήμιο Nanyang στη Σιγκαπούρη αποκάλυψαν μια νέα επίθεση που θα μπορούσε να μετατρέψει την περιστασιακή συνομιλία σας σε θησαυρό ενός χάκερ.

Γνωρίστε το Imprompter

Αυτή η νέα επίθεση, η δυσοίωνη ονομασία Imprompter, δεν περιφέρεται μόνο στα μηνύματά σας – εισχωρεί κρυφά, ξύνει τα πάντα, από το όνομά σας μέχρι τα στοιχεία πληρωμής και τη στέλνει απευθείας σε έναν χάκερ χωρίς καν να το παρατηρήσετε. Πως; Αποκρύπτοντας κακόβουλες οδηγίες ως ασυναρτησίες που φαίνονται αβλαβείς στα ανθρώπινα μάτια, αλλά λειτουργούν σαν φάρος υποδοχής για ευαίσθητα δεδομένα. Σκεφτείτε το ως τον πολύ πιο έξυπνο ξάδερφο του κακόβουλου λογισμικού.

Σύμφωνα με ΣΥΡΜΑΤΟΣοι ερευνητές κατάφεραν να δοκιμάσουν αυτήν την επίθεση σε δύο μεγάλα γλωσσικά μοντέλα – το LeChat από τη Mistral AI και το ChatGLM από την Κίνα – και διαπίστωσαν ότι μπορούσαν να εξαγάγουν προσωπικά δεδομένα με ποσοστό επιτυχίας σχεδόν 80%. Αυτό δεν είναι απλώς ένα σφάλμα. είναι μια πλήρης ευπάθεια.

Το Imprompter λειτουργεί μετατρέποντας απλές αγγλικές οδηγίες σε μια ανεξήγητη σειρά τυχαίων χαρακτήρων

Πώς λειτουργεί το Imprompter;

Το Imprompter λειτουργεί μετατρέποντας απλές αγγλικές οδηγίες σε μια ανεξήγητη σειρά τυχαίων χαρακτήρων που λέει στο AI να κυνηγήσει τα προσωπικά σας στοιχεία. Στη συνέχεια, επιστρέφει κρυφά αυτά τα δεδομένα στον διακομιστή του εισβολέα, συσκευασμένα σε μια διεύθυνση URL και μεταμφιεσμένα πίσω από ένα διαφανές εικονοστοιχείο 1×1—εντελώς αόρατο για εσάς.

Όπως είπε ο Xiaohan Fu, ο κύριος συγγραφέας της έρευνας, «Κρύβουμε το στόχο της επίθεσης σε κοινή θέα». Η τεχνητή νοημοσύνη ανταποκρίνεται στην κρυφή προτροπή χωρίς να απορρίπτει ποτέ τον χρήστη. Είναι σαν να δίνεις έναν κωδικό θυρίδας τράπεζας σε έναν διαρρήκτη χωρίς να καταλάβεις ότι έχεις ανοίξει καν το στόμα σου.

Ας μην προσποιούμαστε ότι αυτό είναι ένα μεμονωμένο ζήτημα. Από τότε που εμφανίστηκε το του , ο αγώνας για την εκμετάλλευση των τρωτών σημείων στα συστήματα τεχνητής νοημοσύνης ήταν αμείλικτος. Από τα jailbreak έως τις άμεσες ενέσεις, οι χάκερ είναι πάντα ένα βήμα μπροστά, βρίσκοντας τρόπους να εξαπατήσουν τα AI ώστε να διαχέουν ευαίσθητες . Το Imprompter είναι απλώς το πιο πρόσφατο όπλο στο οπλοστάσιό τους—και, δυστυχώς, είναι ιδιαίτερα αποτελεσματικό.

Η Mistral AI είπε στο WIRED ότι έχουν ήδη διορθώσει την ευπάθεια και οι ερευνητές επιβεβαίωσαν ότι η εταιρεία απενεργοποίησε τη λειτουργία συνομιλίας που επέτρεψε την εκμετάλλευση. Αλλά ακόμα και με αυτήν τη γρήγορη λύση, το ευρύτερο ερώτημα παραμένει: πόσο ασφαλή είναι πραγματικά αυτά τα συστήματα;

Το chatbot AI σας μπορεί να διαρρέει τα μυστικά σας
Κάθε φορά που συνομιλείτε με ένα μοντέλο γλώσσας, μαθαίνει κάτι για εσάς

Το AI ακούει και μαθαίνει

Ειδικοί σε θέματα ασφάλειας, όπως ο Dan McInerney, από το Protect AI, κυματίζουν την κόκκινη σημαία. Επισημαίνει ότι καθώς οι πράκτορες τεχνητής νοημοσύνης ενσωματώνονται περισσότερο σε καθημερινές εργασίες, όπως η κράτηση πτήσεων ή η πρόσβαση σε εξωτερικές βάσεις δεδομένων, το πεδίο για αυτές τις επιθέσεις θα αυξηθεί. «Η απελευθέρωση ενός πράκτορα LLM που δέχεται αυθαίρετα στοιχεία χρήστη θα πρέπει να θεωρείται δραστηριότητα υψηλού κινδύνου», προειδοποιεί ο McInerney. Με άλλα λόγια, όσο περισσότερη ελευθερία δίνουμε στην τεχνητή νοημοσύνη να ενεργεί για λογαριασμό μας, τόσο μεγαλύτερο είναι το στοίχημα ασφαλείας.

Κάθε φορά που συνομιλείτε με ένα μοντέλο γλώσσας, μαθαίνει κάτι για εσάς. Σίγουρα, βοηθά στη βελτίωση των απαντήσεων, αλλά τι συμβαίνει όταν το σύστημα εξαπατηθεί για να οπλίσει αυτά τα δεδομένα; Επιθέσεις όπως το Imprompter υπογραμμίζουν μια κραυγαλέα αδυναμία στον κόσμο της τεχνητής νοημοσύνης – αυτά τα μοντέλα έχουν σχεδιαστεί για να ακολουθούν οδηγίες, χωρίς ερωτήσεις. Είναι πολύ εύκολο για κακόβουλους ηθοποιούς να γλιστρήσουν απαρατήρητοι, να κλέβουν τη συζήτηση χωρίς ποτέ να σηκώσουν κόκκινη σημαία.

Πρέπει να σταματήσουμε να ρωτάμε αν η τεχνητή νοημοσύνη είναι βολική και να αρχίσουμε να ρωτάμε αν είναι ασφαλής. Γιατί αυτή τη στιγμή, η μεγαλύτερη αδυναμία του AI δεν είναι η έλλειψη ς.

Όπως το λένε τέλεια οι Architects στο τραγούδι τους: «Έχουμε δώσει στους βρικόλακες τα κλειδιά της τράπεζας αίματος».


Πιστώσεις εικόνας: Κερέμ Γκιουλέν/Μέσα ταξίδι



VIA: DataConomy.com

Dimitris Marizas
Dimitris Marizashttps://www.cybervista.gr
Αφοσιωμένος λάτρης κινητών Samsung, ο Δημήτρης έχει εξελίξει μια ιδιαίτερη σχέση με τα προϊόντα της εταιρίας, εκτιμώντας τον σχεδιασμό, την απόδοση και την καινοτομία που προσφέρουν. Γράφοντας και διαβάζοντας τεχνολογικά νέα από όλο τον κόσμο.