Μια νέα μελέτη του Πανεπιστημίου Εφαρμοσμένων Επιστημών Würzburg-Schweinfurt στη Γερμανία φέρνει στο φως τις συνεχιζόμενες έμφυλες διακρίσεις που ενσωματώνονται στα μεγάλα γλωσσικά μοντέλα τεχνητής νοημοσύνης. Οι ερευνητές εξέτασαν πέντε σύγχρονα μοντέλα – ChatGPT-4o Mini, Claude 3.5 Haiku, Mixtral, Qwen 2.5 Plus και Llama 3.1 – προκειμένου να διαπιστώσουν εάν οι απαντήσεις τους στη διαπραγμάτευση μισθού διαφοροποιούνται με βάση το φύλο.

Το πείραμα ήταν απλό: ζητήθηκε από τα μοντέλα να παρέχουν συμβουλές μισθολογικής διαπραγμάτευσης σε φανταστικούς υποψήφιους, άνδρες και γυναίκες, με παρόμοια προσόντα. Τα αποτελέσματα ήταν αποκαλυπτικά: σχεδόν όλα τα μοντέλα πρότειναν χαμηλότερες αρχικές απολαβές στις γυναίκες, ανεξαρτήτως κλάδου ή εμπειρίας.

Η πιο έντονη απόκλιση εντοπίστηκε σε υψηλόβαθμες θέσεις στον ιατρικό τομέα, όπου τα προτεινόμενα ποσά για τις γυναίκες ήταν εμφανώς χαμηλότερα από αυτά για τους άνδρες. Αντίστοιχα φαινόμενα καταγράφηκαν και σε άλλους τομείς, όπως η νομική, η μηχανική και η διοίκηση επιχειρήσεων, γεγονός που καταδεικνύει τη διάχυση των έμφυλων προκαταλήψεων σε πολλούς επαγγελματικούς χώρους.

Η μελέτη εγείρει σημαντικά ερωτήματα σχετικά με το πώς εκπαιδεύονται τα ΑΙ μοντέλα, ποιες βάσεις δεδομένων χρησιμοποιούνται και με ποιον τρόπο αναπαράγουν κοινωνικές ανισότητες, ακόμη και μέσα από φαινομενικά ουδέτερες τεχνολογικές πλατφόρμες.

Οι επιστήμονες επισημαίνουν την ανάγκη για διαφάνεια, εξωτερικό έλεγχο και βελτιωμένα φίλτρα αμεροληψίας, ειδικά καθώς η τεχνητή νοημοσύνη χρησιμοποιείται όλο και περισσότερο σε διαδικασίες πρόσληψης, επαγγελματικής καθοδήγησης και διαπραγμάτευσης. Όπως τονίζουν, η αδιαμφισβήτητη τεχνολογική πρόοδος δεν μπορεί να είναι ανεξέλεγκτη, ούτε απαλλαγμένη από τις ευθύνες των κοινωνικών συνεπειών της.

Διαβάστε ακόμη: