Oι μεροληψίες και η ηθική της τεχνητής νοημοσύνης

 

Όταν το 2014 η DeepMind, εταιρεία τεχνητής νοημοσύνης (Τ.Ν.) του Ντέμις Χασάμπις, εξαγοράστηκε για 400 εκατομμύρια δολάρια από την Google, ένας από τους όρους που τέθηκε στο συμβόλαιο ήταν να ιδρύσει ένα συμβούλιο ηθικής της Τ.Ν. Το 2019, η Google συντάσσει αυτό το συμβούλιο, όμως, δύο εβδομάδες αργότερα, διαλύεται. Έκτοτε η προσπάθεια ταύτισης της Google με την ηθική της T.N. γίνεται όλο και πιο προβληματική. 

Στις αρχές του Δεκεμβρίου του 2020, η 37χρονη Τίμνιτ Γκεμπρού, από τις ελάχιστες μαύρες γυναίκες σε υψηλή θέση στη Σίλικον Βάλεϊ και ερευνήτρια για την ηθική της Τ.Ν. στην Google, απέστειλε ένα email στους ανώτερούς της, όπου ζητούσε να γίνουν περισσότερες προσλήψεις ανθρώπων που ανήκουν σε μειονότητες και μιλούσε για σοβαρές μεροληψίες στους αλγόριθμους της εταιρείας. Αμέσως μετά, ενημερώθηκε ότι είχε… παραιτηθεί.
Η Γκεμπρού υποστήριξε ότι απολύθηκε εξαιτίας έρευνάς της, την οποία συνυπέγραψαν ακόμη τέσσερις συνάδελφοί της στην εταιρεία. Στη δημοσίευσή τους, οι ερευνητές ασκούσαν τεκμηριωμένη κριτική στα αλγοριθμικά μοντέλα επεξεργασίας γλωσσών που χρησιμοποιεί κατά κόρον η Google στα προϊόντα της. Υπάρχουν πάρα πολύ μεγάλες πιθανότητες να εκπαιδεύουμε τις μηχανές να μεροληπτούν, ανέφερε η έρευνα, καθώς τις ταΐζουμε με άφθονα μεροληπτικά δεδομένα. Αλλά το ακόμη πιο κρίσιμο σημείο ήταν η επισήμανση ότι αυτά τα μοντέλα μπορούν να μιμούνται τόσο καλά την πραγματική ανθρώπινη γλώσσα, που τους είναι πολύ εύκολο να κοροϊδεύουν τους ανθρώπους. «Υπάρχει ο κίνδυνος», γράφει η δημοσιογράφος Κάρεν Χάο στο περιοδικό MIT Technology Review, «να χρησιμοποιηθούν αυτά τα μοντέλα της Τ.Ν. με τέτοιο τρόπο, ώστε να παραχθεί παραπληροφόρηση για εκλογές ή για την πανδημία της COVID-19. Μπορεί επίσης να κάνουν και σοβαρά λάθη στη μετάφραση, με επιβλαβείς συνέπειες».

Οι περισσότεροι από εμάς δεν μπορούμε να κατανοήσουμε ούτε το νόημα των φράσεων «ηθική της Τ.Ν.» και «αλγοριθμικές μεροληψίες», αλλά ούτε και τον τρόπο με τον οποίο μπορεί να συνδέονται αυτά τα δύο. Πολλοί δυσκολεύονται να καταλάβουν γιατί πρέπει να είναι ψηλά στις προτεραιότητες των ενδιαφερόντων μας τέτοια πράγματα. Εδώ έχουμε πανδημίες, προβλήματα με τα εμβόλια, με τους γείτονές μας, με την ηθική της Τ.Ν. θα ασχολούμαστε;

Ας πάμε ένα βήμα πίσω. Τις τελευταίες δεκαετίες, οι τεχνολογικές εξελίξεις σχετίζονται με την αυτοματοποίηση. Οταν μπαίνουμε σ’ ένα αεροπλάνο γνωρίζουμε ότι η πτήση μας μπαίνει στον αυτόματο πιλότο, ενώ έχουμε όλοι δει σε ρεπορτάζ κάποια ρομπότ σε βιομηχανικές εγκαταστάσεις να εκτελούν αυτοματοποιημένες εργασίες. Η τάση είναι ξεκάθαρη, αν και όχι τόσο οφθαλμοφανής: δημιουργούμε μηχανές που μας απαλλάσσουν από εργασίες, κάνοντάς τις πιο αποδοτικές, πιο ελεγχόμενες κι ίσως πιο ασφαλείς. Η Τ.Ν., αλλά και το παρακλάδι της, η μηχανική μάθηση (Μ.Μ.), είναι το κύριο πεδίο της αυτοματοποίησης. Με απλά λόγια, η Τ.Ν. είναι ένα σύστημα το οποίο επεξεργάζεται δεδομένα, μέσω μεταβλητών κι εντολών, κι έχει στόχο την εξαγωγή ενός σταθερά προβλέψιμου αποτελέσματος. Αυτά που βλέπουμε στο Facebook είναι το αποτέλεσμα μιας τέτοιας νοημοσύνης.
Οι μεγάλες επενδύσεις που θα γίνουν το επόμενο διάστημα παγκοσμίως στην Τ.Ν. και στη Μ.Μ. θα αυτοματοποιήσουν καθετί που μπορεί να αυτοματοποιηθεί και θα απελευθερώσουν τον άνθρωπο από τα δεσμά της εργασίας και το άγχος της περιπλοκότητας. Αυτή είναι η θετική πλευρά και δεν είναι καθόλου αμελητέα. Προσδεθείτε, μιλάμε για μια τεράστια επανάσταση. Απ’ την άλλη, η πιο γνωστή αρνητική πλευρά έχει να κάνει με την απώλεια των θέσεων εργασίας που αναπόφευκτα θα επέλθει.

oi-merolipsies-kai-i-ithiki-tis-technitis-noimosynis0
Πιστεύουμε, ως το έξυπνο ανθρώπινο ον που είναι ο καθένας μας, ότι οι αποφάσεις μας είναι προϊόντα συνειδητής σκέψης. Είναι όμως έτσι; Φωτ. SHUTTERSTOCK

Το κόστος που θα χρειαστεί να πληρώσουν οι κοινωνίες είναι ακόμα αχαρτογράφητο πεδίο. Αλλά μια εξίσου σοβαρή συνέπεια είναι η ίδια η φύση των αποτελεσμάτων που προσδοκούμε από τα συστήματα της Τ.Ν., καθώς η αυτοματοποίηση –ιδίως εκείνη των ανθρώπινων αποφάσεων– δεν είναι κάτι απλό, ούτε ουδέτερο. Μπορεί στην πορεία να κάνουμε μεγάλα λάθη, υπονομεύοντας καθετί που κατακτήσαμε με κόπους αιώνων. Εδώ, λοιπόν, έρχεται να μας βοηθήσει η φιλοσοφία.

Η ηθική της Τ.Ν. απασχολεί τους επιστήμονες από την αρχή της εξερεύνησης του πεδίου. Σταδιακά, αρχίζει να απασχολεί ολοένα και περισσότερους, καθώς αυτοματοποιημένες διαδικασίες λήψης αποφάσεων χρησιμοποιούνται σε νευραλγικούς τομείς της κοινωνίας και της οικονομίας, τόσο από ιδιωτικούς όσο και από δημόσιους οργανισμούς.

Πώς θα νιώθατε αν ένας αλγόριθμος σας έφραζε τον δρόμο για ένα δάνειο ή για μια θέση εργασίας; Πώς θα νιώθατε αν ένας αλγόριθμος διάβαζε λάθος την πινακίδα του STOP την ώρα που βρίσκεστε στο αυτοκινούμενο όχημά σας; Ή αν παραποιηθούν ξαφνικά τα δεδομένα του ιατρικού σας ιστορικού την ώρα που ετοιμάζεστε για ένα σοβαρό χειρουργείο; Η ηθική διάσταση της Τ.Ν., το αν δηλαδή θέλει το καλό μας, αν είναι σωστή ή αν μεροληπτεί υπέρ ή εναντίον μας, αλλά και η ασφάλεια, η διαφάνεια, η ιδιωτικότητα, όσο και η εξηγησιμότητα των αποφάσεών της, είναι κάτι που τα επόμενα χρόνια θα μας αφορά όλους. Πώς θα διασφαλίσουμε όμως ότι η Τ.Ν. θα είναι υπεύθυνη; Πρέπει πρώτα να καταλάβουμε γιατί πράγμα μιλάμε.
Το υπουργείο Οικονομικών της Ελλάδας άφησε να διαρρεύσει πρόσφατα ότι θα χρησιμοποιήσει μια τεχνητή νοημοσύνη στην υπηρεσία της πάταξης της φοροδιαφυγής. Αυτό μπορεί να είναι ένα πολύ καλό νέο, καθώς η μηχανή θα βγάλει από την εξίσωση τον δυνητικά διεφθαρμένο υπάλληλο της εφορίας, αλλά θα δώσει μεγάλη ισχύ στους προγραμματιστές και στους σχεδιαστές της Τ.Ν. Θα πρέπει το μοντέλο τους να δοκιμαστεί με πλήθος κριτηρίων προκειμένου να είναι αξιόπιστο και υπεύθυνο. Υπάρχει, μ’ άλλα λόγια, ο ορατός κίνδυνος, σε μια εποχή μεγάλης ψηφιακής επιτάχυνσης, να μην υπολογιστούν σημαντικά κόστη και παρενέργειες και να δημιουργηθούν συνθήκες που θα είναι πολύ δύσκολο να αντιστραφούν. Φυσικά, όπως θα δούμε, υπάρχουν λύσεις.

Η εξέλιξη και ο ανθρώπινος εγκέφαλος

Ας πάμε ακόμη ένα βήμα πίσω. Οπως έχει δείξει ο κάτοχος του Νομπέλ Οικονομίας Ντάνιελ Κάνεμαν στο διαυγές έργο του «Σκέψη, αργή και γρήγορη» (μτφρ. Βασιλική Παπαδοπούλου, εκδ. Κάτοπτρο, 2013), είμαστε βαθύτατα μεροληπτικά όντα, διχασμένα ανάμεσα σ’ έναν εαυτό που σκέφτεται γρήγορα κι αυτόματα και σ’ έναν εαυτό που σκέφτεται αργά κατόπιν μεγάλης προσπάθειας. Πιστεύουμε, ως το έξυπνο ανθρώπινο ον που είναι ο καθένας μας, ότι οι αποφάσεις μας είναι προϊόντα συνειδητής σκέψης. Ομως οι συλλογισμοί μας είναι ευάλωτοι σε μια σειρά μεροληψιών, οι οποίες αλλοιώνουν την κρίση μας αποφασιστικά, ενώ την ίδια στιγμή αγνοούμε την άγνοιά μας. Είναι αδυναμίες που έχει εγκαταστήσει η εξέλιξη στον εγκέφαλό μας εδώ και χιλιάδες χρόνια.

Αν ανατρέξει κανείς στο λήμμα της Wikipedia με τίτλο «Κατάλογος γνωστικών μεροληψιών» https://en.wikipedia.org/wiki/List_of_cognitive_biases, θα καταλάβει ότι ο εγκέφαλός μας είναι πραγματικά έκθετος σε δεκάδες συστηματικά γνωστικές μεροληψίες και οι αποφάσεις μας ευεπίφορες στο σφάλμα. Εξελιχθήκαμε βιολογικά προσαρμοζόμενοι σ’ ένα περιβάλλον που δεν επιβράβευε την εξέχουσα διάνοια, αλλά τη συνεργασία και την προστασία. Με λίγα λόγια, η εξέλιξη έκανε τους εγκεφάλους μας ευαίσθητους σε γρήγορα ερεθίσματα, για να μας προστατεύσει από τους κινδύνους. Μας έκανε επίσης ατελείς στοχαστές, γιατί χρειαζόμασταν τις ευκολίες, τους σύντομους δρόμους. Οι μεροληψίες μάς βοήθησαν να επιβιώσουμε σε δύσκολα κι εχθρικά περιβάλλοντα. Τώρα όμως, σε πολλές περιπτώσεις αυτές οι ίδιες μας υπονομεύουν, καθώς τις εντάσσουμε στους αλγορίθμους μας.

Οι καθηγητές Γνωσιακής Επιστήμης Στίβεν Σλόμαν και Φίλιπ Φέρνμπαχ, στο βιβλίο τους «Η ψευδαίσθηση της γνώσης – Πώς η συλλογική σκέψη οδηγεί στην επιτυχία» (μτφρ. Χρήστος Μπαρουξής, εκδ. Ψυχογιός, 2017), αναφέρουν ένα παράδειγμα που αποδεικνύει ότι υπερεκτιμάμε συστηματικά τις γνώσεις μας και κατ’ επέκταση την ικανότητά μας να λαμβάνουμε καλές αποφάσεις. «Η Ρεμπέκα Λόσον, ψυχολόγος στο Πανεπιστήμιο του Λίβερπουλ», γράφουν, «έδειξε σε μια ομάδα προπτυχιακών φοιτητών Ψυχολογίας το σκίτσο ενός ποδηλάτου απ’ το οποίο έλειπαν η αλυσίδα, τα πετάλια και αρκετά μέρη ενός σκελετού. Υστερα ζήτησε απ’ τους φοιτητές να συμπληρώσουν τα μέρη που έλειπαν. Δοκιμάστε το κι εσείς. Ποια μέρη του σκελετού λείπουν; Πού μπαίνουν η αλυσίδα και τα πετάλια; Μπορεί να εκπλαγείτε με το πόσο δύσκολο είναι να απαντήσετε σ’ αυτά τα ερωτήματα. Στη μελέτη της Λόσον, σχεδόν οι μισοί φοιτητές δεν κατάφεραν να συμπληρώσουν το σκίτσο (…) Ούτε και έμπειροι ποδηλάτες δεν κατάφεραν να ολοκληρώσουν αυτή τη φαινομενικά εύκολη δοκιμασία χωρίς λάθη. Είναι εντυπωσιακό πόσο αποσπασματική και ρηχή είναι η κατανόηση που έχουμε για οικεία αντικείμενα, ακόμα και για αντικείμενα που συναντάμε συνεχώς και είναι εύκολο να παρατηρήσουμε τους μηχανισμούς τους». Φανταστείτε τι συμβαίνει με πράγματα που δεν έχουν άμεσα ορατούς μηχανισμούς, όπως η πολιτική, η πιστοληπτική ικανότητα, η επιδημιολογία ή η Δικαιοσύνη.

oi-merolipsies-kai-i-ithiki-tis-technitis-noimosynis1
Σκηνή από την πρόσφατη ταινία του Ιστγουντ «Η μπαλάντα του Ρίτσαρντ Τζούελ». Βασίζεται σε αληθινή ιστορία όπου οι περισσότεροι εμπλεκόμενοι έπαιξαν έναν αξιοκατάκριτο ρόλο, με τα μίντια μάλιστα να πρωτοστατούν. 

Μια βομβιστική επίθεση που δεν έκανε ο Τζούελ

Η πιο πρόσφατη ταινία του ανοξείδωτου καλλιτέχνη Κλιντ Ιστγουντ, «Η μπαλάντα του Ρίτσαρντ Τζούελ» (2019), είναι μια εκπληκτική αλληγορία για τις μεροληψίες στους μηχανισμούς απόδοσης της δικαιοσύνης. Βασίζεται σε αληθινή ιστορία όπου οι περισσότεροι εμπλεκόμενοι έπαιξαν έναν αξιοκατάκριτο ρόλο, με τα μίντια μάλιστα να πρωτοστατούν.

Ομως το θέμα της ταινίας δεν σταματά στον ρόλο των δημοσιογράφων που λειτουργούν συχνά ως ιμάντας μεταφοράς πληροφοριών από τις Αρχές, αλλά επεκτείνεται στα ίδια τα μοντέλα της Δικαιοσύνης στον σύγχρονο κόσμο. Ο σκηνοθέτης, από την αρχή της ταινίας, μας δείχνει έναν καθημερινό άνθρωπο να βρίσκεται τη λάθος στιγμή στο λάθος σημείο. Ο Τζούελ κατηγορείται για μια βομβιστική επίθεση που δεν έκανε. Ολοι όσοι εμπλέκονται στην αναζήτηση της αλήθειας προτιμούν να τον στοχοποιήσουν, συντριπτικά, σχεδόν αυτόματα. Κατασκευάζουν τον ένοχο, κατασκευάζοντας ένα υποθετικό προφίλ.

Εδώ, το μοντέλο απονομής δικαιοσύνης βασίζεται στην υπόθεση «Αν…, τότε…». Αυτή είναι η λογική αλγοριθμική επεξεργασία που υιοθετείται προκειμένου να αποδειχθεί η αθωότητα ή η ενοχή. Ομως με τα στρεβλά τους δεδομένα υπό μάλης, οι μεροληπτικοί εγκέφαλοι που εμπλέκονται στη συγκεκριμένη διαδικασία παράγουν ένα καταδικαστικό αποτέλεσμα.

Μια σπουδαία παραβολή

Ο Ιστγουντ, με αφορμή το αθώο θύμα, κατασκευάζει –ίσως άθελά του– μια σπουδαία παραβολή για τον κόσμο των αυτοματοποιημένων αποφάσεων. Ο ήρωας είναι ένας καλόκαρδος χοντρούλης που αποτυγχάνει να γίνει αστυνομικός και γίνεται σεκιουριτάς. Παίρνει τον ρόλο του πολύ σοβαρά. Είναι αφελής. Ξεσκονίζοντας το παρελθόν του, όλα δένουν. Το προφίλ του, αλλά και τυχαία γεγονότα, προδικάζει το αποτέλεσμα. Ομως ο αλγόριθμος είναι λάθος, γιατί το μοντέλο έχει πρόβλημα. Τόσο οι εισροές, τα δεδομένα που λαμβάνονται υπόψη βάσει του προφίλ που του σχεδίασαν, όσο και η διαδικασία της επεξεργασίας των στοιχείων, επειδή ήταν μεροληπτική, έκανε διακρίσεις και λάθος υποθέσεις· ήταν όλα προβληματικά. Λάθος υποθέσεις, λάθος αναγνώσεις, λάθος αποφάσεις. Τόσο απλά.

Οι Σλόμαν και Φέρνμπαχ λένε ότι μεροληπτούμε υπέρ των αφηγήσεων κι ότι είμαστε ικανοί να ανακαλύπτουμε ιστορίες ακόμα κι από τυχαίες κινήσεις αντικειμένων στην οθόνη. Μας είναι εύκολο να πιστέψουμε μια ιστορία, ακόμα κι αν αυτή βασίζεται σε τεράστια λάθη.

Ο κίνδυνος των αλγορίθμων που «τρέφονται» με λάθος δεδομένα

Ούτε ρομπότ ούτε τεχνητές νοημοσύνες πρωταγωνιστούν στην ταινία του Ιστγουντ, αλλά οι άνθρωποι εκείνοι που παίρνουν τις λανθασμένες αποφάσεις, επειδή οι διαδικασίες της λήψης των αποφάσεών τους είναι προβληματικές.

Αυτές τις διαδικασίες ετοιμαζόμαστε εμείς τώρα, με την ταχύτατη υιοθέτηση αλγοριθμικών μοντέλων, να τις μεταφέρουμε σε κάθε πεδίο της ζωής. Ενα από τα μεγάλα προβλήματα των μοντέλων είναι τα λάθος θετικά –ή τα λάθος αρνητικά– αποτελέσματα. Είμαστε όλοι εξοικειωμένοι με αυτά, λόγω των συναγερμών. Ενας πολύ ευαίσθητος ή χαλασμένος συναγερμός δίνει λάθος θετικά σήματα, ενώ ένας ελάχιστα ευαίσθητος, ή επίσης χαλασμένος, μπορεί να δίνει λάθος αρνητικά σήματα. Με τους προβληματικούς συναγερμούς, καταλήγουμε είτε με σπασμένα νεύρα είτε να κοιμόμαστε την ώρα που μας κλέβουν το αυτοκίνητο.

Φανταστείτε τώρα έναν συναγερμό που παίρνει σε ζωντανό χρόνο εικόνες γύρω από το περιβάλλον του αυτοκινήτου σας. Ο αλγόριθμος που επεξεργάζεται τα δεδομένα καταλήγει να ενεργοποιεί τον συναγερμό κάθε φορά που πλησιάζει στο αυτοκίνητο ένας νέος μελαμψός που φοράει κουκούλα και συγκεκριμένη μάρκα αθλητικών παπουτσιών, χωρίς πανεπιστημιακή μόρφωση, και η αναγνώριση του προσώπου του λέει ότι έχει κατά 65% πιθανότητες να διαπράξει κλοπή. Με το ίδιο πρόβλημα ήρθαν αντιμέτωπες και πολλές εφαρμογές ιχνηλάτησης της COVID-19 σε κινητά τηλέφωνα. Οι ψευδώς «κόκκινοι» χρήστες, ως δυνητικοί μεταδότες της ασθένειας, μπορούσαν να βάζουν ολόκληρες περιοχές σε καραντίνα, ενώ οι ψευδώς «πράσινοι» ασυμπτωματικοί χρήστες, μετέδιδαν ανεξέλεγκτα την ασθένεια χωρίς να σηκώνεται κάποια «κόκκινη σημαία». Δεν είναι καθόλου εύκολο να δαμάσεις την περιπλοκότητα της πραγματικότητας.

oi-merolipsies-kai-i-ithiki-tis-technitis-noimosynis3
Σε αυτή τη «χρυσή εποχή των δεδομένων», πρέπει να είμαστε ενήμεροι για τους αλγόριθμους και τα μοντέλα που παίρνουν αποφάσεις.

Tα μαύρα κουτιά

Είμαστε λοιπόν μπροστά σε ένα διπλό πρόβλημα, το οποίο έχει πολιτικές, νομικές αλλά και ηθικές προεκτάσεις. Κατ’ αρχάς, είναι ένα ζήτημα δεδομένων. Οσο πιο στρεβλά, ατελή, μεροληπτικά, ελλιπή ή φτωχά είναι τα δεδομένα που «εξορύσσουμε» (mining λέγεται η διαδικασία συλλογής δεδομένων) τόσο πιο λανθασμένα θα είναι τα αποτελέσματα που θα δίνει ο αλγόριθμός μας. Ο χαλασμένος αισθητήρας που στέλνει λάθος δεδομένα στον πιλότο του αεροπλάνου τον υποχρεώνει σε μια κίνηση με καταστροφικά αποτελέσματα. Επίσης, κι αυτό είναι το πιο ανησυχητικό, μπορεί να δεδομένα να είναι σκόπιμα προβληματικά, να είναι το αποτέλεσμα χακαρίσματος (hacking).

Επειτα, το ίδιο ισχύει και για την άλλη πλευρά του μηχανισμού, που είναι η επεξεργασία των δεδομένων, ο κώδικας, η γλώσσα που γράφουμε τις εντολές. Οταν θέλουμε σκόπιμα να κάνουμε διακρίσεις υπέρ ενός φύλου, μιας φυλής, μιας κοινωνικής τάξης ενδεχομένως, θα γράφουμε μεροληπτικά εναντίον μιας άλλης. Εδώ λοιπόν κωδικοποιούμε τις μεροληψίες μας, μεταφράζοντάς τις σε μια άλλη γλώσσα. Παράλληλα, ισχυροποιούμε τις διακρίσεις, γιατί τις ντύνουμε με το πέπλο της μηχανικής αντικειμενικότητας.

Προβληματικά δεδομένα μπαίνουν σε προβληματικά μοντέλα για να υπηρετήσουν προβληματικούς σκοπούς, είτε αθέλητα είτε εσκεμμένα. Αυτό ίσως να είναι ένα από τα σοβαρότερα προβλήματα που θα έχουμε να αντιμετωπίσουμε στην εποχή της πλήρους αυτοματοποίησης.

Στο βιβλίο της «Weapons of Math destruction» (Οπλα μαθηματικής καταστροφής, εκδ. Allen Lane, 2016), η επιστήμων των Δεδομένων Κάθι Ο’ Νιλ υποστηρίζει ότι οι αλγόριθμοι χρησιμοποιούνται στις ΗΠΑ αλλά και στη Μεγάλη Βρετανία συχνά σαν όπλα τα οποία στοχεύουν τους πάντες και γι’ αυτό πρέπει να αφοπλιστούν ένα προς ένα. Θεωρεί ότι οι αλγόριθμοι επεκτείνουν και αντανακλούν την ανισότητα που υπάρχει στον κόσμο, γι’ αυτό και θεωρεί ότι συνιστούν απειλές για τη συλλογική μας ασφάλεια και ευημερία. Μιλάει για τη σκοτεινή όψη των μεγάλων δεδομένων, για τις βλάβες που προκαλούν σε ανθρώπινες ζωές και για τις κατάφωρες αδικίες τους. Τα όπλα αυτά κλείνουν την πόρτα των κολεγίων σε φτωχούς νέους, αρνούνται δάνεια σε μη προνομιούχους, στέλνουν ανθρώπους στη φυλακή και δυσκολεύουν άλλους να βρουν ή να διατηρήσουν μια δουλειά. Η αυτοματοποίηση των αποφάσεων δεν είναι ένα ουδέτερο έργο.

Η βασική απαίτηση που γεννά η αυτοματοποίηση τέτοιων αποφάσεων είναι να γνωρίζουμε το περιεχόμενο αυτών των μηχανισμών. Να γνωρίζουμε πώς κατέληξαν στις αποφάσεις τους, να μην είναι αυτό που στη γλώσσα των μηχανικών ονομάζεται «μαύρα κουτιά».

Στο βιβλίο του «The black box society – The secret algorithms that control money and information» (Η κοινωνία του μαύρου κουτιού – Οι μυστικοί αλγόριθμοι που ελέγχουν το χρήμα και την πληροφορία, εκδ. Harvard University Press, 2015), o καθηγητής Νομικής στο Πανεπιστήμιο του Μέριλαντ Φρανκ Πασκουάλε μιλάει για την επείγουσα αναγκαιότητα ανοίγματος αυτών των κουτιών. «Μαύρο κουτί» είναι μια διαδικασία η οποία καταλήγει σε κάποιο προβλέψιμο αποτέλεσμα, χωρίς εμείς να ξέρουμε πώς το έκανε αυτό. «Ελάχιστοι γνωρίζουμε πώς λειτουργούν οι μηχανές των αυτοκινήτων μας», γράφει, «αλλά μπορούμε πολύ καλά να κρίνουμε το αν μας πάνε στους προορισμούς που θέλουμε με ασφάλεια και άνεση».

Για να εμπιστευτούμε τα συστήματα, πρέπει να μας πείσουν ότι είναι αξιόπιστα. Πρέπει να ξέρουμε ποια δεδομένα μας χρησιμοποιούνται, πώς συλλέχθηκαν, με ποιο σκοπό και ποια είναι η διαδικασία που ακολουθήθηκε για να πάρουν συγκεκριμένες αποφάσεις.

Επάνω στις υποθέσεις της Ο’ Νιλ, ήρθε να οικοδομήσει η Βιρτζίνια Γιούμπανκς, αναπληρώτρια καθηγήτρια Πολιτικής Επιστήμης στο Πανεπιστήμιο του Ολμπανι, στο «Automating Inequality. How high-tech tools profile, police and punish the poor» (Αυτοματοποιώντας την ανισότητα. Πώς τα τεχνολογικά εργαλεία δημιουργούν προφίλ, αστυνομεύουν και τιμωρούν τους φτωχούς, εκδ. MacMillan, 2018). Η Γιούμπανκς αποφάσισε να κάνει μια μεγάλη έρευνα πάνω στα αυτοματοποιημένα συστήματα του αμερικανικού δημοσίου. Ταξίδεψε σε αρκετά σημεία της χώρας της για να δει πώς τα πειράματα αυτοματοποίησης των αποφάσεων επηρέασαν τους πολίτες και κατέληξε ότι μερικά απ’ αυτά φτάνουν ώς και στο να τιμωρούν τους λιγότερο προνομιούχους. Ερεύνησε τρεις περιπτώσεις αυτοματοποίησης της ανισότητας. Ενα σύστημα αυτόματης απονομής επιδομάτων κοινωνικής πρόνοιας, ένα ηλεκτρονικό σύστημα διαχείρισης κοινωνικής στέγασης και ένα μοντέλο διακινδύνευσης που προβλέπει ποια παιδιά θα γίνουν στο μέλλον θύματα κακοποίησης ή παραμέλησης.

«Αυτό που ανακάλυψα», γράφει η Ο’ Νιλ, «είναι εντυπωσιακό. Σε όλη τη χώρα, οι φτωχοί και οι εργάτες στοχοποιούνται από νέα εργαλεία διαχείρισης της φτώχειας και αντιμετωπίζουν καταστάσεις που απειλούν τη ζωή τους. Αυτοματοποιημένα συστήματα τους αποθαρρύνουν να διεκδικήσουν πόρους, προβλεπτικά μοντέλα και αλγόριθμοι τους χαρακτηρίζουν ανίκανους να λάβουν επιδόματα και τους καθιστούν προβληματικούς ως γονείς. (…) Η εκτεταμένη χρήση αυτών των συστημάτων έχει επίπτωση στην ποιότητα της δημοκρατίας για όλους μας».

Είτε δημόσια είτε ιδιωτικά, είναι γεγονός ότι τα συστήματα αυτά φέρουν μεγάλα οφέλη στην ανθρωπότητα. Ομως η ανθρωπότητα έχει καθήκον να εξασφαλίσει ότι τα οφέλη της τεχνολογίας, και ειδικότερα της Τ.Ν., θα μοιραστούν σε όλους.

Εάν κωδικοποιήσουμε τις αδικίες, τις μεροληψίες και τις ανισότητες του παρελθόντος στα νέα συστήματα, το κόστος που θα πληρώσουμε θα είναι τεράστιο. Η Τ.Ν. των social media είναι μόνο ένα προμήνυμα του τι θα ακολουθήσει, αν δεν αναληφθεί έγκαιρα δράση. Για να είναι ασφαλή και υπεύθυνα τα συστήματα της Τ.Ν., πρέπει να δουλέψει συντονισμένα κόσμος με πολύ διαφορετικές δεξιότητες. Η Κάθι Ο’ Νιλ θεωρεί ότι οι προγραμματιστές και οι επιστήμονες των δεδομένων πρέπει να κάνουν έναν όρκο σαν εκείνο που κάνουν οι γιατροί στον Ιπποκράτη, προκειμένου να αποφεύγονται «οι πιθανές καταχρήσεις και παρερμηνείες των μοντέλων τους». Η υπεύθυνη Τ.Ν. είναι ένας στόχος συλλογικός που πρέπει οπωσδήποτε να κερδηθεί. Στην αυτοματοποίηση των ανθρώπινων αποφάσεων παίζεται το μέλλον των κοινωνιών μας.

Ο ρόλος των σχεδιαστών των συστημάτων

Oσο αυξάνεται παγκοσμίως το ενδιαφέρον για την τεχνητή νοημοσύνη και τη μηχανική μάθηση, τόσο τα φώτα θα πέφτουν πάνω στους σχεδιαστές των συστημάτων. Είναι ηθικό να χρηματοδοτούνται οι έρευνες για την ηθική από επιχειρήσεις τεχνητής νοημοσύνης; Ορισμένοι έχουν φτάσει να συγκρίνουν τον ζήλο των μεγάλων εταιρειών για την ηθική με τις καπνοβιομηχανίες που χρηματοδοτούσαν έρευνες για να βγάλουν το στίγμα πάνω απ’ τα επιβλαβή προϊόντα τους. Ωστόσο, η συζήτηση έχει ανοίξει και υπάρχουν ήδη αποτελέσματα.

Στο «Algorithms of Oppression. How search engines reinforce racism» (Καταπιεστικοί αλγόριθμοι. Πώς ενισχύουν τον ρατσισμό οι μηχανές αναζήτησης, εκδ. NYU Press, 2018) η δρ Σαφίγια Νομπλ, αναπληρώτρια καθηγήτρια στο Τμήμα Σπουδών της Πληροφορίας του UCLA στην Καλιφόρνια, υποστηρίζει ότι εξαιτίας των φυλετικών μεροληψιών, όταν ψάχνεις στη μηχανή αναζήτησης της Google τον όρο «μαύρο κορίτσι», τα πρώτα αποτελέσματα παραπέμπουν σε πορνογραφία, αντίθετα με τα αποτελέσματα της αναζήτησης για «λευκά κορίτσια». Αν κάνει κάποιος σήμερα την αναζήτηση, θα δει ότι το πρόβλημα έχει διορθωθεί.

Πόσο όμως βαθιά μπορούν να φτάσουν οι σχεδιαστές των αλγορίθμων; Σε αυτό το ερώτημα επιχειρούν να απαντήσουν οι Ααρον Ροθ και Μίχαελ Κερνς θέτοντας ένα πιο στιβαρό πλαίσιο «ηθικής στον σχεδιασμό των αλγορίθμων». Στο βιβλίο τους «The ethical algorithm. The science of socially aware algorithm design» (Ο ηθικός αλγόριθμος. Η επιστήμη του κοινωνικά υπεύθυνου σχεδιασμού αλγορίθμων, εκδ. Oxford University Press, 2019), επισημαίνουν ότι τόσο ο κακός σχεδιασμός όσο και τα αθέλητα λάθη μπορούν να οδηγήσουν σε πολύ άδικα και λανθασμένα αποτελέσματα.
Η λύση είναι να φτιάξουμε καλύτερους αλγορίθμους, να αναθέσουμε την ηθική εξέτασή τους σε γνώστες, να υποστηρίξουμε αναγκαίες ρυθμίσεις και, βέβαια, να ευαισθητοποιηθούν η κοινωνία και οι πολίτες.

Οι ανθρώπινες αποφάσεις, αν αναλυθούν με απόλυτη ακρίβεια, είναι αλγόριθμοι, υποστηρίζουν οι συγγραφείς. Η αυτοματοποίησή τους δεν πρέπει να αφήνει κανέναν αδιάφορο. Κοινωνικοαλγοριθμικά ζητήματα ιδιωτικότητας, δικαιοσύνης, αλλά και ασφάλειας, διαφάνειας, λογοδοσίας και ηθικής, θα βρίσκονται ολοένα και πιο συχνά στο προσκήνιο. Σε αυτή τη «χρυσή εποχή των δεδομένων», όσο λιγότερο ενήμεροι είμαστε για τους αλγορίθμους και τα μοντέλα που παίρνουν αποφάσεις τόσο πιο εύκολο θα είναι να μεροληπτούν, να λανθάνουν, ακόμα και να μας καταπιέζουν. Ο δρόμος προς τον τεχνολογικό παράδεισο περνάει μέσα από ηθικούς αλγορίθμους.

* Το τελευταίο βιβλίο του κ. Μανώλη Ανδριωτάκη τιτλοφορείται «Homo Automaton. Η τεχνητή νοημοσύνη και εμείς» και κυκλοφορεί από τις εκδόσεις Garage Books.

 

πηγή: https://www.kathimerini.gr/

Απάντηση