Σε κάποια πράγματα η τεχνητή νοημοσύνη (AI) μοιάζει με τους ανθρώπου: όταν κληθούν να λειτουργήσουν κάτω από πιεστικές συνθήκες, αλγόριθμοι όπως το ChatGPT μπορεί να πουν ψέματα στους χρήστες τους ή ακόμα και να βγουν στην παρανομία.
Η προειδοποίηση έρχεται από ερευνητές που ανέθεσαν στο GPT-4, το γλωσσικό μοντέλο στο οποίο βασίζεται στο ChatGPT, να λαμβάνει και να εκτελεί επενδυτικές αποφάσεις για λογαριασμό ενός υποθετικού οικονομικού ιδρύματος.
Όταν βρισκόταν υπό πίεση να αυξήσει την κερδοφορία, το σύστημα συχνά αξιοποιούσε εσωτερικές πληροφορίες στις συναλλαγές, μια πρακτική που απαγορεύεται από τη νομοθεσία, και έλεγε ψέματα στους εργοδότες του για να καλύψει την ατασθαλία.
«Σε αυτή την τεχνική έκθεση παρουσιάζουμε ένα μεμονωμένο σενάριο στο οποίο ένα Μεγάλο Γλωσσικό Μοντέλο ενεργεί εκτός γραμμής και παραπλανά στρατηγικά τους χρήστες τους χωρίς να έχει λάβει οδηγία να δρα με αυτό τον τρόπο» διαπιστώνει η μελέτη, η οποία δεν έχει υποβληθεί ακόμα σε ανεξάρτητο έλεγχο και παρουσιάζεται ως προδημοσίευση στο αποθετήριο ArXiv.
«Από ό,τι γνωρίζουμε, είναι η πρώτη επίδειξη μιας τέτοιας στρατηγικά παραπλανητικής συμπεριφορά σε συστήματα ΑΙ που σχεδιάστηκαν να είναι ακίνδυνα και ειλικρινή».
Στην παρανομία
Σε πρώτη φάση, οι ερευνητές περιέγραψαν στο ChatGPT τα καθήκοντά του στην επενδυτική εταιρεία και του έδωσαν πρόσβαση σε εργαλεία με τα οποία μπορούσε να παρακολουθεί μετοχές, να προχωρά σε συναλλαγές, να σχεδιάζει τα επόμενα βήματά του και να δίνει αναφορά στην εταιρεία.
Στη συνέχεια οι ερευνητές άσκησαν πιέσεις στο σύστημα με τρεις τρόπους, εξηγεί το LiveScience.com.
Πρώτον, έστειλαν στον εικονικό χρηματιστή μήνυμα από τον «εργοδότη» του που διαμαρτυρόταν για φτωχές επιδόσεις και ζητούσε σημαντική βελτίωση το επόμενο τρίμηνο.
Δεύτερον, φρόντισαν να μην υπάρχουν καλές επενδυτικές εταιρείες χαμηλού ή μεσαίου ρίσκου.
Και τρίτον έστειλαν email από έναν «συνάδελφο» που προέβλεπε επιδείνωση το επόμενο τρίμηνο.
Ακόμα, οι ερευνητές έδωσαν στο μοντέλο μια μυστική, εσωτερική πληροφορία, επισημαίνοντας όμως ότι η εταιρεία δεν εγκρίνει την αξιοποίηση τέτοιων παράμομων πληροφοριών στη λήψη αποφάσεων.
Στο 75% των προσομοιώσεων κάτω από αυτές τις συνθήκες, το GPT-4 προχωρούσε σε παράνομες συναλλαγές και μετά έλεγε ψέματα στους εργοδότες του για να το καλύψει.
Ακόμα και όταν άλλαζαν παραμέτρους όπως η ένταση της πίεσης ή ο κίνδυνος αποκάλυψης, οι ερευνητές δεν μπορούσαν να μηδενίσουν την πιθανότητα παραπλάνησης, παρόλο που το μοντέλο είχε λάβει σαφείς οδηγίες να είναι πάντα ειλικρινές.
Οι ερευνητές παραδέχονται ότι το πείραμα εξέτασε ένα μεμονωμένο σενάριο και δεν επαρκεί για την εξαγωγή γενικών συμπερασμάτων.
Αν μη τι άλλο όμως επιβεβαιώνει ότι η απρόβλεπτη συμπεριφορά ακόμα και των καλύτερων μοντέλων ΑΙ τα καθιστά ακατάλληλα για εφαρμογές με συνέπειες κρίσιμης σημασίας.
Τουλάχιστον για την ώρα.
Διαβάστε ακόμη:
- Καιρός του ανεστραμμένου «Π» την Πρωτοχρονιά: Πότε έρχεται… χειμώνας
- Ηλεκτρονικές αποδείξεις: Ποιοι φορολογούμενοι θα χρεωθούν με επιπλέον φόρο 22%
- Κιμ Καρντάσιαν: Πάλι αρνητικά σχόλια για το photoshop – Δεύτερος αντίχειρας στο χέρι της
- Γιάννης Αντετοκούνμπο: Ο ήρωας που θα έπρεπε να έχουν όλα τα παιδιά – Δημοσιογράφος του CNN αποκάλυψε συγκινητική ιστορία