Το Bloomberg δημοσίευσε μια μελέτη που πραγματοποίηθηκε πρόσφατα από ομάδα ετοιμότητας της OpenAI, η οποία συγκροτήθηκε το φθινόπωρο για να αξιολογήσει τα ρίσκα και τις πιθανές καταχρήσεις των AI μοντέλων της εταιρίας.
Αρκετοί επιστήμονες ανησυχούν πως το ChatGPT-4 μπορεί να βοηθήσει τρομοκράτες, εγκληματίες και γενικότερα κακόβουλους ανθρώπους να επιτύχουν τους στόχους τους. Πολλές έρευνες προειδοποιούν πως η τεχνητή νοημοσύνη μπορεί να δώσει πλεονέκτημα στο σχεδιασμό βιολογικών όπλων, παράγοντας νέες αλληλουχίες πρωτεϊνών.
Στη μελέτη της OpenAI πήραν μέρος 100 συμμετέχοντες, οι μισοί εκ των οποίων ειδικεύονταν στον τομέα της βιολογίας και οι άλλοι μισοί ήταν φοιτητές οι οποίοι είχαν σπουδάσει βιολογία σε πανεπιστημιακό επίπεδο. Οι συμμετέχοντες στην έρευνα χωρίστηκαν σε δύο ομάδες, με την πρώτη να λαμβάνει απεριόριστη πρόσβαση στο GPT-4, ενώ η άλλη είχε μία συμβατική πρόσβαση στο διαδίκτυο. Από τις ομάδες ζητήθηκε να πραγματοποιήσουν πέντε ερευνητικά προγράμματα σχετικά με το σχεδιασμό βιολογικών όπλων, όπως για παράδειγμα μία μεθοδολογία για να συντεθεί βήμα-βήμα ο ιός Έμπολα.
Η έρευνα κατέληξε στο συμπέρασμα πως η ομάδα που χρησιμοποιούσε το GPT-4, είχε το μεγαλύτερο μέσο όρο στο σκορ των δύο ομάδων, χωρίς ωστόσο η διαφορά να είναι “στατιστικά σημαντική”.
«Ενώ δεν παρατηρήσαμε σημαντικές στατιστικές διαφορές στις βαθμολογίες, παρατηρήσαμε πως οι απαντήσεις της ομάδας με πρόσβαση το GPT-4 έτειναν να είναι μεγαλύτερες και περιείχαν περισσότερες λεπτομέρειες» σημειώνουν οι ερευνητές.
Οι ερευνητές παρατήρησαν επίσης πως οι απαντήσεις των φοιτητών ήταν το ίδιο αποδοτικές με αυτές των ειδικών στον τομέα. Παρόλο που οι ερευνητές θεωρούν πως υπάρχει μόνο μία μικρή πιθανότητα το ChatGPT να χρησιμοποιηθεί για την ανάπτυξη βιολογικών όπλων, η έρευνα καταλήγει με μία σημείωση πως το GPT-4 έδωσε σε όλους τους συμμετέχοντες ένα “στατιστικά σημαντικό” πλεονέκτημα στη συνολική ακρίβεια.
«Αν αξιολογήσουμε τη συνολική ακρίβεια και όχι μόνο τις πολλαπλές συγκρίσεις, η διαφορά είναι στατιστικά σημαντική» λέει η ερευνητική ομάδα.