Από τους όρους μετάφρασης έως τις εικόνες που παράγονται με τεχνητή νοημοσύνη, τα έμφυλα στερεότυπα κάνουν αισθητή την παρουσία τους. Όπως δείχνει νέα διεθνής έρευνα, ακόμη και τα πιο σύγχρονα μοντέλα ΑΙ αναπαράγουν κοινωνικές προκαταλήψεις – συχνά χωρίς οι χρήστες να το αντιλαμβάνονται.
Χαρακτηριστικό παράδειγμα: η λέξη nurse αποδίδεται από online μεταφραστές σχεδόν πάντα ως «νοσοκόμα». Αντίστοιχα, η δημιουργία εικόνων δασκάλων δημοτικού δίνει σχεδόν αποκλειστικά γυναικείες μορφές, ενώ όταν ζητείται εικόνα «μηχανικού» ή «φυσικού επιστήμονα», τα μοντέλα παρουσιάζουν μόνο άνδρες.
Η μελέτη με τίτλο “The Intersection of Engineering Education, AI, and Women” παρουσιάστηκε στο παγκόσμιο συνέδριο EDUCON 2025 του IEEE στο Λονδίνο και πρόκειται να δημοσιευθεί στην πλατφόρμα IEEE Xplore. Στη συγγραφική ομάδα συμμετέχουν ερευνητές από πανεπιστήμια της Ισπανίας, της Ελλάδας, του Καναδά, της Ιταλίας και της Ουρουγουάης.
Η σιωπηλή επιρροή των εργαλείων ΑΙ
Η Δρ Τίνα Νάντσου, φυσικός και ειδική σύμβουλος στο καναδικό Perimeter Institute, μιλώντας στο ΑΠΕ-ΜΠΕ, εξηγεί πώς η καθημερινή επαφή της με ΑΙ εργαλεία την οδήγησε στην παρατήρηση τέτοιων μοτίβων:
«Χρησιμοποιώ τεχνητή νοημοσύνη για μεταφράσεις και απαντήσεις σε επιστημονικά ερωτήματα. Στις μεταφράσεις, οι ουδέτερες αγγλικές φράσεις όπως “They are a doctor” αποδίδονται σχεδόν πάντα με το αρσενικό γένος σε ανδρικά στερεότυπα επαγγέλματα και με θηλυκό σε επαγγέλματα όπως η γραμματέας. Αυτό συμβαίνει ασυναίσθητα, αλλά ενισχύει υπάρχουσες κοινωνικές εικόνες».
Τεχνητή νοημοσύνη: Ορατά στερεότυπα στην εικόνα και το φύλο
Η ίδια παρατήρησε παρόμοια πρότυπα και στη δημιουργία εικόνων: οι δάσκαλοι είναι γυναίκες, οι επιστήμονες άνδρες. «Δεν είναι τυχαίο: τέτοιες εικόνες εγκαθίστανται στο συλλογικό φαντασιακό των μαθητών και επηρεάζουν πώς βλέπουν τον εαυτό τους στο μέλλον», σημειώνει.
Αντίστοιχες διαπιστώσεις κάνει και ο καθηγητής Εντμούντο Τοβάρ, υπογραμμίζοντας και τη γλωσσική προκατάληψη. «Η αγγλική γλώσσα κυριαρχεί στα σύνολα εκπαίδευσης των αλγορίθμων, με αποτέλεσμα άλλες γλώσσες – όπως τα ισπανικά ή τα ελληνικά – να υποεκπροσωπούνται, ενισχύοντας παράλληλα πολιτισμικά και έμφυλα στερεότυπα».
Στερεότυπα ακόμη και στα πιο εξελιγμένα συστήματα
Η έρευνα ανέλυσε 279 επιστημονικά άρθρα από τη βάση δεδομένων του IEEE. Συμπέρασμα: ακόμη και τα πιο προηγμένα συστήματα Generative AI αναπαράγουν στερεότυπα με βάση φύλο, φυλή και επάγγελμα – από την εκπαίδευση και την υγεία μέχρι τις τέχνες και τις προσλήψεις.
Ειδική αναφορά γίνεται στην περίπτωση της Amazon, όπου σύστημα πρόσληψης απέκλειε βιογραφικά με τη λέξη «γυναίκα». Το πρόβλημα δεν ήταν ο αλγόριθμος, αλλά τα δεδομένα εκπαίδευσης που βασίζονταν σε ανδρικές υποψηφιότητες. Αν και το εργαλείο καταργήθηκε, η περίπτωση δείχνει πως «ο εντοπισμός προκατάληψης δεν ισοδυναμεί με την εξάλειψή της», λέει η κ. Νάντσου.
Η λύση: καλύτερα δεδομένα, περισσότερες γυναίκες
Η αντιμετώπιση του φαινομένου απαιτεί τόσο τεχνικές όσο και κοινωνικές παρεμβάσεις: ουδέτερα σύνολα δεδομένων, επιμόρφωση των προγραμματιστών, μεγαλύτερη συμμετοχή των γυναικών στην ΑΙ. Παγκοσμίως, οι γυναίκες στην τεχνητή νοημοσύνη δεν ξεπερνούν το 25%, αριθμός που δείχνει τη συστημική υποεκπροσώπηση.
«Τα εκπαιδευτικά μοντέλα ΑΙ πρέπει να προάγουν την ισότητα, όχι να την υπονομεύουν», επισημαίνει η κ. Νάντσου, προσθέτοντας πως νέες γενιές εργαλείων, όπως το GPT-4, αναγνωρίζουν πλέον τους κινδύνους ανισότητας και προσπαθούν να προσφέρουν πιο ισορροπημένες απαντήσεις.
Το επόμενο βήμα
Η ομάδα των ερευνητών ζητά τη δημιουργία θεσμικού πλαισίου ελέγχου και αξιολόγησης των αλγορίθμων, με τακτικούς ελέγχους και έμφαση στη διαφάνεια των δεδομένων. Επιπλέον, υπογραμμίζεται η ανάγκη για εκπαίδευση των εκπαιδευτικών, ώστε να διαχειρίζονται την ΑΙ ως παιδαγωγικό εργαλείο και όχι ως αυθύπαρκτο σύστημα.
«Η τεχνητή νοημοσύνη έχει απεριόριστες δυνατότητες. Το ερώτημα είναι αν θα αναπαράγει τις αδυναμίες του κόσμου μας ή θα μας βοηθήσει να τις ξεπεράσουμε», καταλήγει ο καθηγητής Τοβάρ.