"Αν ρωτήσετε την ΤΝ "πες μου τις σημαντικότερες ηγετικές προσωπικότητες όλων των εποχών”, θα δείτε πόσες γυναίκες και πόσοι άντρες εμφανίζονται. Αν ζητήσετε εικόνες ή περιγραφές για έναν νοσηλευτή, θα διαπιστώσετε ότι πιο συχνά εμφανίζονται γυναίκες, ενώ αν ζητήσετε για "CEO”, εμφανίζονται κυρίως άντρες. Αυτό δεν είναι τυχαίο. Είναι η αντανάκλαση των δεδομένων του παρελθόντος στα οποία έχει εκπαιδευτεί το σύστημα. Αυτά τα δεδομένα επιλέγονται από ανθρώπους, ενώ συχνά περιέχουν ήδη υπάρχουσες προκαταλήψεις. Έτσι, δημιουργείται ένας φαύλος κύκλος: το σύστημα τροφοδοτείται με στοιχεία προκα- τάληψης, τα δίνει στον χρήστη, ο χρήστης βασίζεται σε αυτά και, τελικά, η μεροληψία συνεχίζεται και αναπαράγεται. Με αυτό τον τρόπο, και η Τεχνητή Νοημοσύνη αντανακλά, αλλά και ενισχύει τα υπάρχοντα έμφυλα στερεότυπα, ενώ επίσης μπορεί να διαιωνίσει μια προκατάληψη, ενδεχομένως και να την παγιώσει, "ντύνοντάς” την παράλληλα με το περίβλημα της τεχνολογίας, που συχνά παρουσιάζεται ως αντικειμενική και αλάνθαστη.
Το ερώτημα είναι: Η συμμετοχή περισσότερων γυναικών στον σχεδιασμό των αλγορίθμων θα μπορούσε να βοηθήσει στη μείωση αυτού του φαινομένου; Έχειενδιαφέρον ότι διαθέσιμα δεδομένα δείχνουν πως, σήμερα, μόνο περίπου το 30% των επαγγελματιών της Τεχνητής Νοημοσύνης είναι γυναίκες (World Economic Forum), γεγονός που σημαίνει ότι τα περισσότερα συστήματα σχεδιάζονται χωρίς επαρκή εκπροσώπηση και διαφορετικές οπτικές. Η συμμετοχή περισσότερων γυναικών στον σχεδιασμό και την ανάπτυξη της ΤΝ είναι κρίσιμη, αλλά από μόνη της δεν αποτελεί τη μοναδική λύση. Απαιτεί και ένα ισχυρό θεσμικό πλαίσιο.
Μεγάλο ρόλο παίζει και η ηθική. Οι αξίες που έχουμε ως κοινωνία βάζοντας τον άνθρωπο στο επίκεντρο. Σίγουρα όμως χρειαζόμαστε κάποιες κόκκινες γραμμές. Και εδώ έρχεται η νομοθεσία. Ο Ευρωπαϊκός Κανονισμός για την Τεχνητή Νοημοσύνη (AI Act) αποτελεί ένα σημαντικό βήμα. Θέτει σαφείς απαγορεύσεις για πρακτικές που παραβιάζουν θεμελιώδη δικαιώματα, όπως το social scoring, κατατάσσει ορισμένα συστήματα, όπως αυτά που χρησιμοποιούνται για προσλήψεις, στα "υψηλού κινδύνου”, επιβάλλοντας αυστηρές υποχρεώσεις ελέγχου για την αποφυγή διακρίσεων, εισάγει την υποχρεωτική αξιολόγηση των επιπτώσεων στα θεμελιώδη δικαιώματα, αναγνωρίζοντας ότι τα συστήματα ΤΝ μπορούν να επηρεάσουν άμεσα την ισότητα και την ανθρώπινη αξιοπρέπεια. Θα μπαίναμε ποτέ σε ένα αυτοκίνητο χωρίς φρένα ή χωρίς αερόσακο, μόνο και μόνο επειδή είναι τεχνικά πιο γρήγορο και εξελιγμένο; Φυσικά όχι. Η πρόοδος χωρίς όρια και χωρίς ασφάλεια δεν είναι πραγματική πρόοδος. Το ίδιο ισχύει και για την ΤΝ. Πρέπει να έχουμε μια προβολή του αξιακού μας πλαισίου στην τεχνολογική εξέλιξη.
Μπορούμε να διαμορφώσουμε τον τρόπο με τον οποίο θα χρησιμοποιηθεί η ΤΝ τις επόμενες δεκαετίες. Τώρα είναι η στιγμή να συμμετέχουμε ενεργά, να θέτουμε τα σωστά ερωτήματα, να κατανοούμε τους κινδύνους και να διασφαλίζουμε ότι η ανάπτυξη της ΤΝ γίνεται με τρόπο δίκαιο, υπεύθυνο και προς όφελος της κοινωνίας. Να στοχαζόμαστε. Πριν χρησιμοποιήσουμε ένα εργαλείο ΤΝ, να αναρωτηθούμε: "Το χρειάζομαι πραγματικά;”. Και όταν βλέπουμε μια εικόνα, ένα κείμενο, να μην το αποδεχόμαστε αυτόματα ως αλήθεια, αλλά να το αξιολογούμε με κριτική σκέψη. Οι νομικοί το ονομάζουμε "Αρχή Αναλογικότητας”. Η τεχνολογία, όπως και η ΤΝ, είναι ένα εργαλείο που δημιουργείται από τον άνθρωπο για τον άνθρωπο. Από μόνη της δεν είναι ούτε καλή ούτε κακή. Για εμένα, αυτό είναι το πιο σημαντικό μήνυμα σήμερα. Να μην είμαστε απλώς χρήστες, αλλά συνειδητοί χρήστες της τεχνολογίας. Να αφιερώνουμε χρόνο για να κατανοούμε τι χρησιμοποιούμε και γιατί. Γιατί τελικά, η Τεχνητή Νοημοσύνη δεν θα καθορίσει το μέλλον από μόνη της. Εμείς θα το καθορίσουμε, μέσα από τις επιλογές μας".