Κύμα παραπληροφόρησης και θεωριών συνωμοσίας κατέκλυσε τα μέσα κοινωνικής δικτύωσης μετά τη δολοφονία του Τσάρλι Κερκ, με ορισμένα από τα ψευδή στοιχεία να τροφοδοτούνται ή να ενισχύονται από εργαλεία Τεχνητής Νοημοσύνης.

AI bots σε πρώτο πλάνο

Το CBS News εντόπισε δέκα αναρτήσεις του Grok, του chatbot της πλατφόρμας X, που κατονόμαζαν λανθασμένα τον ύποπτο πριν γίνει γνωστή η ταυτότητά του. Αν και το Grok αργότερα παραδέχτηκε το λάθος, ήδη φωτογραφίες και ονόματα αθώων ανθρώπων κυκλοφορούσαν στο Διαδίκτυο.

Το Grok δημιούργησε επίσης «βελτιωμένες» εκδοχές φωτογραφιών που είχε δημοσιεύσει το FBI, με αποτέλεσμα να παραποιηθούν τα χαρακτηριστικά και η ένδυση του υπόπτου. Μία τέτοια εικόνα αναδημοσιεύτηκε ακόμη και από το γραφείο του σερίφη της κομητείας Ουάσινγκτον, το οποίο αναγκάστηκε στη συνέχεια να διευκρινίσει πως «πρόκειται για φωτογραφία βελτιωμένη με τη χρήση AI».

Κάποιες από αυτές τις «βελτιωμένες» εικόνες έδειχναν έναν άνδρα πολύ μεγαλύτερης ηλικίας από τον 22χρονο Ρόμπινσον, ενώ ένα AI βίντεο, στο οποίο ο συλληφθείς παρουσιάζονταν με αλλοιωμένα χαρακτηριστικά, αναρτήθηκε από χρήστη του X με περισσότερους από 2 εκατ. ακολούθους και αναδημοσιεύτηκε χιλιάδες φορές.

Αντιφάσεις και ψευδείς πληροφορίες

Ακόμα και μετά τη σύλληψη του Τάιλερ Ρόμπινσον, οι απαντήσεις του Grok παρέμεναν αντιφατικές: σε κάποιες αναρτήσεις παρουσιαζόταν ως Ρεπουμπλικανός, σε άλλες ως ανεξάρτητος. Στην πραγματικότητα, τα μητρώα δείχνουν ότι δεν ανήκει σε κάποιο κόμμα.

Σε άλλες περιπτώσεις, το chatbot υποστήριζε πως ο Κερκ ήταν ζωντανός την επόμενη ημέρα της δολοφονίας του, όριζε λάθος ημερομηνία δολοφονίας, χαρακτήριζε «φάρσα» την ανακοίνωση του FBI για την επικήρυξη ή μιλούσε για «αντικρουόμενες αναφορές» ενώ ο θάνατος είχε ήδη επιβεβαιωθεί.

Και άλλες πλατφόρμες στο κάδρο

Ωστόσο, δεν ήταν μόνο το Grok. Το AI bot της Perplexity στο X χαρακτήρισε τη δολοφονία «υποθετικό σενάριο» και αμφισβήτησε την ανακοίνωση του Λευκού Οίκου. Το μήνυμα κατέβηκε, ενώ ο εκπρόσωπος της Perplexity δήλωσε στο CBS News ότι «η ακριβής ΑΙ είναι ο πυρήνας της τεχνολογίας που αναπτύσσουμε και βρίσκεται στο επίκεντρο της εμπειρίας σε όλα μας τα προϊόντα», προσθέτοντας όμως ότι «η Perplexity δεν ισχυρίζεται ότι είναι 100% ακριβής».

Ενας άλλος εκπρόσωπος πρόσθεσε ότι το bot της εταιρείας στο X δεν είχε ενσωματώσει τις τελευταίες βελτιώσεις και πως από τότε η εταιρεία έχει αποσύρει το συγκεκριμένο bot από την πλατφόρμα X.

Παράλληλα, το AI Overview της Google εμφάνισε ψευδή πληροφορία σε αναζήτηση για τον Χάντερ Κόζακ, τον τελευταίο που μίλησε στον Κερκ πριν σκοτωθεί, αναφέροντας πως πρόκειται για το άτομο που βρίσκεται στο στόχαστρο του FBI. Το λάθος διορθώθηκε την επόμενη ημέρα.

«Στη συντριπτική πλειονότητα των ερωτημάτων που αναζητούν πληροφορίες για το συγκεκριμένο θέμα δίδονται απαντήσεις υψηλής ποιότητας και ακρίβειας», δήλωσε εκπρόσωπος της Google στο CBS News. «Λόγω της ταχύτατα εξελισσόμενης φύσης της είδησης, είναι πιθανό τα συστήματά μας να παρερμήνευσαν διαδικτυακό περιεχόμενο ή να έχασαν κάποια πληροφορία, όπως μπορεί να συμβεί με κάθε λειτουργία αναζήτησης, δεδομένου του μεγέθους του Διαδικτύου», πρόσθεσε.

«Δεν κάνουν fact checking»

Ο Σ. Σιάμ Σούνταρ, καθηγητής στο Penn State και διευθυντής του Κέντρου Κοινωνικά Υπεύθυνης Τεχνητής Νοημοσύνης, τόνισε πως τα generative AI εργαλεία βασίζονται σε πιθανότητες, όχι σε επιτόπιο ρεπορτάζ ή διασταύρωση γεγονότων. «Δεν κάνουν fact checking. Αν υπάρχει αμφισβήτηση για τον θάνατο, το σύστημα μπορεί να την αναπαράγει», είπε.

Επισήμανε ακόμη ότι οι χρήστες τείνουν να εμπιστεύονται περισσότερο την «ουδετερότητα» μιας μηχανής απ’ ό,τι ενός αγνώστου στο Διαδίκτυο, κάτι που καθιστά την παραπληροφόρηση πιο επικίνδυνη.

Ανάμιξη από ξένες χώρες

Ο κυβερνήτης της Γιούτα, Σπένσερ Κοξ, προειδοποίησε πως ξένες δυνάμεις, ανάμεσά τους η Ρωσία και η Κίνα, αξιοποιούν bots για να διασπείρουν ψευδείς ειδήσεις και να ενθαρρύνουν τη βία. «Θα σας προέτρεπα να αγνοήσετε αυτές τις πηγές, να κλείσετε αυτά τα streams και να περάσετε περισσότερο χρόνο με τις οικογένειές σας», δήλωσε.

Διαβάστε ακόμη: