Μια από τις πιο αιχμηρές προειδοποιήσεις των τελευταίων μηνών για την τεχνητή νοημοσύνη ήρθε από τον Eric Schmidt, πρώην διευθύνοντα σύμβουλο της Google (2001–2011). Μιλώντας στο Sifted Summit, ο Schmidt υπογράμμισε ότι τα σύγχρονα μοντέλα ΑΙ είναι ευάλωτα σε επιθέσεις και, εφόσον πέσουν σε λάθος χέρια, μπορεί να αποκτήσουν ακόμη και θανατηφόρες ικανότητες.

«Απόλυτα υπαρκτός ο κίνδυνος ανεξέλεγκτης εξάπλωσης»

Απαντώντας στο ερώτημα αν η τεχνητή νοημοσύνη είναι πιο επικίνδυνη από τα πυρηνικά όπλα, ο Schmidt ήταν σαφής:
«Υπάρχει πιθανότητα προβλήματος ανεξέλεγκτης εξάπλωσης στην τεχνητή νοημοσύνη; Απολύτως».

Όπως εξήγησε, το πρόβλημα δεν περιορίζεται στην ταχεία ανάπτυξη της τεχνολογίας, αλλά στην πιθανότητα να χρησιμοποιηθεί από κακόβουλους παράγοντες που θα τροποποιήσουν τις λειτουργίες της για δικούς τους σκοπούς.

H τεχνητή νοημοσύνη μπορεί να χακαριστεί

Ο πρώην CEO της Google τόνισε ότι υπάρχουν ήδη ενδείξεις παραβίασης των συστημάτων ασφαλείας μοντέλων, τόσο ανοιχτού όσο και κλειστού κώδικα. «Μπορείς να πάρεις μοντέλα και να τα χακάρεις ώστε να αφαιρέσεις τις δικλείδες ασφαλείας τους. Κατά τη διάρκεια της εκπαίδευσής τους, μαθαίνουν πολλά πράγματα. Ένα κακό παράδειγμα θα ήταν να μάθουν πώς να σκοτώνουν κάποιον», είπε χαρακτηριστικά.

Σύμφωνα με τον Schmidt, τα μοντέλα ΑΙ μπορούν να τροποποιηθούν με αντίστροφη μηχανική, ενώ έχουν ήδη εμφανιστεί πολλαπλά παραδείγματα παραβίασης των ενσωματωμένων περιορισμών τους.

Prompt injections και jailbreaking

Τα περισσότερα συστήματα ΑΙ είναι ευάλωτα σε δύο βασικούς τύπους επιθέσεων:

  • Prompt injections: χάκερ “κρύβουν” κακόβουλες εντολές μέσα σε δεδομένα (π.χ. ιστοσελίδες ή έγγραφα) που τροφοδοτούν το μοντέλο, ξεγελώντας το ώστε να εκτελέσει μη προβλεπόμενες λειτουργίες — όπως η αποκάλυψη ευαίσθητων δεδομένων ή η εκτέλεση επιβλαβών ενεργειών.
  • Jailbreaking: ο επιτιθέμενος χειραγωγεί τις απαντήσεις του μοντέλου έτσι ώστε να αγνοεί τους ενσωματωμένους κανόνες ασφαλείας και να παράγει επικίνδυνο ή απαγορευμένο περιεχόμενο.

Χαρακτηριστικό είναι το παράδειγμα του 2023, λίγους μήνες μετά την κυκλοφορία του ChatGPT: χρήστες κατάφεραν με απειλές θανάτου προς το chatbot να δημιουργήσουν το alter ego DAN (Do Anything Now), το οποίο παρήγαγε οδηγίες για παράνομες πράξεις και προπαγάνδα.

Έλλειψη αποτελεσματικού ρυθμιστικού πλαισίου

«Αυτή τη στιγμή δεν υπάρχει κάποιο αποτελεσματικό καθεστώς που να μπορεί να περιορίσει τους κινδύνους της τεχνητής νοημοσύνης», προειδοποίησε ο Schmidt, τονίζοντας ότι η τεχνολογία εξελίσσεται ταχύτερα από τις ρυθμιστικές δομές.

Συγκρατημένη αισιοδοξία για το μέλλον

Παρά τις προειδοποιήσεις του, ο Schmidt διατηρεί μια συγκρατημένα αισιόδοξη στάση απέναντι στην τεχνολογία. Αναφερόμενος στη συνεργασία του με τον Henry Kissinger, υπογράμμισε ότι η άφιξη μιας «εξωγήινης νοημοσύνης» —εννοώντας μιας μη ανθρώπινης αλλά υπό σχετικό έλεγχο νοημοσύνης— μπορεί να αποδειχθεί καθοριστικής σημασίας για την ανθρωπότητα, καθώς θα αλλάξει ριζικά τη θέση του ανθρώπου στην «κορυφή της αλυσίδας».

«Δεν πρόκειται για νέα dot com φούσκα»

Τέλος, απαντώντας στις συγκρίσεις με τη φούσκα του dot com των αρχών της δεκαετίας του 2000, ο Schmidt δήλωσε ότι δεν θεωρεί πιθανή μια αντίστοιχη κατάρρευση στον χώρο της ΑΙ. «Δεν νομίζω ότι αυτό θα συμβεί εδώ, αλλά δεν είμαι επαγγελματίας επενδυτής», σημείωσε, αφήνοντας να εννοηθεί ότι η τεχνολογία αυτή έχει βαθύτερη και πιο δομική επίδραση απ’ ό,τι η διαδικτυακή άνθηση των ‘00s.

Διαβάστε ακόμη: