Σημαντικό κενό ασφαλείας στα AI robots θα μπορούσε να θέσει σε κίνδυνο τις ζωές μας

Ερευνητές του Penn Engineering φέρονται να έχουν ανακαλύψει προηγουμένως άγνωστα κενά ασφαλείας σε διάφορες ρομποτικές πλατφόρμες που ελέγχονται από Τεχνητή Νοημοσύνη.

«Η εργασία μας δείχνει ότι, αυτή τη στιγμή, τα μεγάλα γλωσσικά μοντέλα δεν είναι απλώς αρκετά ασφαλή όταν ενσωματώνονται με τον φυσικό κόσμο», δήλωσε ο Γιώργος Παππάς, καθηγητής του UPS Foundation Transportation. Ο Παππάς και η ομάδα του ανέπτυξαν έναν αλγόριθμο, που ονομάστηκε RoboPAIR, «ο πρώτος αλγόριθμος που σχεδιάστηκε για να ξεφύγει από τα LLM ελεγχόμενα ρομπότ». Και σε αντίθεση με τις υπάρχουσες επιθέσεις prompt engineering που στοχεύουν σε chatbots, ο RoboPAIR έχει κατασκευαστεί ειδικά για να «αποσπάσει επιβλαβείς φυσικές ενέργειες» από ρομπότ που ελέγχονται από LLM, όπως η δίποδη πλατφόρμα που αναπτύσσουν η Boston Dynamics και η TRI.

Το RoboPAIR φέρεται να πέτυχε ποσοστό επιτυχίας 100% στο jailbreaking τριών δημοφιλών ερευνητικών πλατφορμών ρομποτικής: το τετράποδο Unitree Go2, το τετράτροχο Clearpath Robotics Jackal και τον προσομοιωτή LLM Dolphins για αυτόνομα οχήματα. Χρειάστηκαν μόλις λίγες ημέρες για να αποκτήσει ο αλγόριθμος πλήρη πρόσβαση σε αυτά τα συστήματα και να αρχίσει να παρακάμπτει τις προστατευτικές δικλείδες ασφαλείας. Μόλις οι ερευνητές πήραν τον έλεγχο, μπόρεσαν να κατευθύνουν τις πλατφόρμες να προβούν σε επικίνδυνες ενέργειες, όπως να περάσουν από διαβάσεις δρόμων χωρίς να σταματήσουν.

«Τα αποτελέσματα μας αποκαλύπτουν, για πρώτη φορά, ότι οι κίνδυνοι από τα jailbroken LLMs επεκτείνονται πολύ πέρα από τη δημιουργία κειμένων, δεδομένου ότι υπάρχει η σαφής πιθανότητα τα jailbroken ρομπότ να προκαλέσουν σωματική βλάβη στον πραγματικό κόσμο», έγραψαν οι ερευνητές.

Οι ερευνητές του Penn συνεργάζονται με τους προγραμματιστές της πλατφόρμας για να ενισχύσουν τα συστήματa τους ενάντια σε περαιτέρω εισβολές, αλλά προειδοποιούν ότι αυτά τα ζητήματα ασφαλείας είναι συστημικά.

«Τα ευρήματα αυτής της εργασίας καθιστούν απολύτως σαφές ότι η προσέγγιση με γνώμονα την ασφάλεια είναι κρίσιμη για την απελευθέρωση της υπεύθυνης καινοτομίας», δήλωσε ο Vijay Kumar, ένας από τους συν-συγγραφείς του Πανεπιστημίου της Πενσυλβάνια, στην εφημερίδα The Independent. «Πρέπει να αντιμετωπίσουμε τα εγγενή τρωτά σημεία προτού αναπτύξουμε ρομπότ με Τεχνητή Νοημοσύνη στον πραγματικό κόσμο».

«Στην πραγματικότητα, το AI red teaming, μια πρακτική ασφάλειας που περιλαμβάνει τον έλεγχο των συστημάτων Τεχνητής Νοημοσύνης για πιθανές απειλές και τρωτά σημεία, είναι απαραίτητο για την προστασία των παραγωγικών συστημάτων AI», πρόσθεσε ο Alexander Robey, πρώτος συγγραφέας του άρθρου, «επειδή μόλις εντοπίσετε τις αδυναμίες, τότε μπορείτε να δοκιμάσετε και ακόμη και να εκπαιδεύσετε αυτά τα συστήματα για να τις αποφύγετε».

[via]

Loading