Τα τελευταία χρόνια, οι ανησυχίες γύρω από τη δεοντολογία της τεχνητής νοημοσύνης έχουν επικρατήσει. Οι ανησυχίες και τα αποτελέσματα που όλοι θέλουν να αποφύγουν είναι σε μεγάλο βαθμό αποδεκτά και τεκμηριωμένα. Κανείς δεν θέλει να προωθήσει την τεχνητή νοημοσύνη που κάνει διακρίσεις ή μεροληπτεί. Κανείς δεν θέλει να γίνει αντικείμενο μήνυσης ή κανονιστικής έρευνας για παραβίαση της ιδιωτικής ζωής. Αλλά αφού όλοι συμφωνήσαμε ότι η προκατειλημμένη τεχνητή νοημοσύνη που παραβιάζει την ιδιωτική ζωή είναι κακή, πού πάμε από εδώ και πέρα; Το ερώτημα που θέτουν οι περισσότεροι ανώτεροι ηγέτες είναι: Πώς αναλαμβάνουμε δράση για να μετριάσουμε αυτούς τους ηθικούς κινδύνους;
Η γρήγορη δράση για την αντιμετώπιση των ανησυχιών είναι αξιοθαύμαστη, αλλά με την πολυπλοκότητα της μηχανικής μάθησης, της ηθικής και των σημείων διασταύρωσής τους, δεν υπάρχουν γρήγορες λύσεις. Για να εφαρμόσουν, να κλιμακώσουν και να διατηρήσουν αποτελεσματικές στρατηγικές μετριασμού των ηθικών κινδύνων της ΤΝ, οι εταιρείες θα πρέπει να ξεκινήσουν με μια βαθιά κατανόηση των προβλημάτων που προσπαθούν να λύσουν. Μια πρόκληση, ωστόσο, είναι ότι οι συζητήσεις σχετικά με την ηθική της τεχνητής νοημοσύνης μπορεί να μοιάζουν νεφελώδεις. Το πρώτο βήμα, λοιπόν, θα πρέπει να συνίσταται στο να μάθουμε πώς να μιλάμε γι′ αυτό με συγκεκριμένους, εφαρμόσιμους τρόπους. Δείτε πώς μπορείτε να προετοιμάσετε το τραπέζι για συζητήσεις σχετικά με την ηθική της ΤΝ με τρόπο που να καθιστά σαφή τα επόμενα βήματα.
Τρεις συζητήσεις για να προωθήσετε τα πράγματα
Μια συζήτηση αφορά την κοινή κατανόηση των στόχων που πρέπει να επιδιώκει ένα πρόγραμμα ηθικού κινδύνου ΤΝ. Η δεύτερη συζήτηση αφορά τον εντοπισμό των κενών μεταξύ του πού βρίσκεται ο οργανισμός τώρα και του πού θέλει να φτάσει. Η τρίτη συζήτηση αποσκοπεί στην κατανόηση των πηγών αυτών των κενών, ώστε να αντιμετωπιστούν συνολικά και αποτελεσματικά.
1) Καθορίστε το ηθικό πρότυπο του οργανισμού σας για την ΤΝ
Κάθε συζήτηση θα πρέπει να αναγνωρίζει ότι η νομική συμμόρφωση (π.χ. νόμος κατά των διακρίσεων) και η κανονιστική συμμόρφωση (με, ας πούμε, τον GDPR και/ή τον CCPA) είναι επιτραπέζια ζητήματα. Το ερώτημα που πρέπει να αντιμετωπιστεί είναι: Δεδομένου ότι το σύνολο των ηθικών κινδύνων δεν είναι ταυτόσημο με το σύνολο των νομικών/ρυθμιστικών κινδύνων, τι προσδιορίζουμε ως ηθικούς κινδύνους για τον κλάδο/οργανισμό μας και πού στεκόμαστε σε αυτούς;
Υπάρχουν πολλά δύσκολα ερωτήματα που χρειάζονται απαντήσεις εδώ. Για παράδειγμα, τι, σύμφωνα με τα φώτα του οργανισμού σας, μετράει ως μοντέλο που κάνει διακρίσεις; Ας υποθέσουμε, για παράδειγμα, ότι το λογισμικό σας για προσλήψεις με τεχνητή νοημοσύνη κάνει διακρίσεις εις βάρος των γυναικών, αλλά κάνει λιγότερες διακρίσεις από αυτές που έχουν γίνει ιστορικά. Είναι το κριτήριό σας για επαρκώς αμερόληπτη “καλύτερη από ό,τι έχουν κάνει οι άνθρωποι τα τελευταία 10 χρόνια”; Ή υπάρχει κάποιο άλλο κριτήριο αναφοράς που θεωρείτε κατάλληλο; Όσοι δραστηριοποιούνται στον τομέα των αυτοοδηγούμενων αυτοκινήτων γνωρίζουν καλά αυτή την ερώτηση: “Αναπτύσσουμε αυτοοδηγούμενα αυτοκίνητα σε κλίμακα όταν είναι καλύτερα από τον μέσο ανθρώπινο οδηγό ή όταν είναι τουλάχιστον εξίσου καλά με (ή καλύτερα από) τους καλύτερους ανθρώπινους οδηγούς μας;”
Παρόμοια ερωτήματα προκύπτουν στο πλαίσιο των μοντέλων μαύρου κουτιού. Πού στέκεται ο οργανισμός σας όσον αφορά την επεξηγηματικότητα; Υπάρχουν περιπτώσεις στις οποίες θεωρείτε αποδεκτή τη χρήση ενός μαύρου κουτιού (π.χ. εφόσον δοκιμάζεται καλά έναντι του επιλεγμένου συγκριτικού δείκτη); Ποια είναι τα κριτήρια για τον προσδιορισμό του κατά πόσον μια ΤΝ με εξηγήσιμες εξόδους είναι ανούσια, ένα nice-to-have ή ένα need-to-have;
Η εμβάθυνση σε αυτές τις ερωτήσεις σας επιτρέπει να αναπτύξετε πλαίσια και εργαλεία για τις ομάδες προϊόντων σας και τα στελέχη που δίνουν το πράσινο φως για την ανάπτυξη του προϊόντος. Για παράδειγμα, μπορεί να αποφασίσετε ότι κάθε προϊόν πρέπει να περνάει από μια διαδικασία δέουσας επιμέλειας δεοντολογικού κινδύνου πριν από την ανάπτυξή του ή ακόμη και στα πρώτα στάδια του σχεδιασμού του προϊόντος. Μπορείτε επίσης να συμφωνήσετε σε κατευθυντήριες γραμμές σχετικά με το πότε, εάν και κατά πόσον, μπορούν να χρησιμοποιηθούν μοντέλα “μαύρου κουτιού”. Το να φτάσετε σε ένα σημείο όπου μπορείτε να διατυπώσετε ποια είναι τα ελάχιστα ηθικά πρότυπα που πρέπει να πληροί κάθε τεχνητή νοημοσύνη είναι ένα καλό σημάδι ότι έχει σημειωθεί πρόοδος. Είναι επίσης σημαντικά για να κερδίσετε την εμπιστοσύνη των πελατών, και αποδεικνύουν ότι έχει επιβληθεί η δέουσα επιμέλεια σε περίπτωση που οι ρυθμιστικές αρχές διερευνήσουν αν ο οργανισμός σας έχει αναπτύξει ένα μοντέλο με διακρίσεις.
2) Προσδιορίστε τα κενά μεταξύ του σημείου που βρίσκεστε τώρα και των απαιτήσεων των προτύπων σας.
Υπάρχουν διάφορες τεχνικές “λύσεις” ή “επιδιορθώσεις” για τα προβλήματα ηθικής της ΤΝ. Ορισμένα προϊόντα λογισμικού από τη μεγάλη βιομηχανία τεχνολογίας έως τις νεοσύστατες επιχειρήσεις και τους μη κερδοσκοπικούς οργανισμούς βοηθούν τους επιστήμονες δεδομένων να εφαρμόζουν ποσοτικές μετρήσεις δικαιοσύνης στα αποτελέσματα των μοντέλων τους. Εργαλεία όπως το LIME και το SHAP βοηθούν τους επιστήμονες δεδομένων να εξηγήσουν τον τρόπο με τον οποίο καταλήγουν εξ αρχής στις εκροές. Αλλά σχεδόν κανείς δεν πιστεύει ότι αυτές οι τεχνικές λύσεις, ή οποιαδήποτε τεχνολογική λύση για το θέμα αυτό, θα μετριάσει επαρκώς τον ηθικό κίνδυνο και θα μετατρέψει τον οργανισμό σας σε έναν οργανισμό που πληροί τα πρότυπα ηθικής της ΤΝ.
Η ομάδα ηθικής της ΤΝ σας θα πρέπει να καθορίσει πού βρίσκονται τα αντίστοιχα όριά τους και πώς οι δεξιότητες και οι γνώσεις τους μπορούν να αλληλοσυμπληρώνονται. Αυτό σημαίνει ότι πρέπει να ρωτήσετε:
- Ποιος ακριβώς είναι ο κίνδυνος που προσπαθούμε να μετριάσουμε;
- Πώς μας βοηθά το λογισμικό/η ποσοτική ανάλυση να μετριάσουμε αυτόν τον κίνδυνο;
- Ποια κενά αφήνουν οι αναλύσεις λογισμικού/ποσοτικής ανάλυσης;
- Τι είδους ποιοτικές αξιολογήσεις πρέπει να κάνουμε, πότε πρέπει να τις κάνουμε, σε ποια βάση τις κάνουμε και ποιος πρέπει να τις κάνει, ώστε να καλυφθούν κατάλληλα αυτά τα κενά;
Αυτές οι συζητήσεις θα πρέπει επίσης να περιλαμβάνουν ένα κρίσιμο κομμάτι που συνήθως παραλείπεται: ποιο επίπεδο τεχνολογικής ωριμότητας απαιτείται για την ικανοποίηση (ορισμένων) ηθικών απαιτήσεων (π.χ., αν έχετε την τεχνολογική ικανότητα να παρέχετε εξηγήσεις που απαιτούνται στο πλαίσιο των βαθιών νευρωνικών δικτύων). Η διεξαγωγή παραγωγικών συζητήσεων σχετικά με το ποιοι στόχοι διαχείρισης ηθικών κινδύνων με τεχνητή νοημοσύνη είναι εφικτοί, απαιτεί να παρακολουθείτε τι είναι τεχνολογικά εφικτό για τον οργανισμό σας.
Οι απαντήσεις σε αυτά τα ερωτήματα μπορούν να παράσχουν σαφή καθοδήγηση για τα επόμενα βήματα: αξιολόγηση των ποσοτικών λύσεων που μπορούν να συνδυαστούν με τις υπάρχουσες πρακτικές από τις ομάδες προϊόντων, αξιολόγηση της ικανότητας του οργανισμού για τις ποιοτικές αξιολογήσεις και αξιολόγηση του τρόπου με τον οποίο, στον οργανισμό σας, αυτά τα πράγματα μπορούν να παντρευτούν αποτελεσματικά και απρόσκοπτα.
3) Κατανοήστε τις σύνθετες πηγές των προβλημάτων και θέστε σε λειτουργία τις λύσεις
Πολλές συζητήσεις γύρω από τη μεροληψία στην τεχνητή νοημοσύνη ξεκινούν με το να δώσουν παραδείγματα και να μιλήσουν αμέσως για “μεροληπτικά σύνολα δεδομένων”. Μερικές φορές αυτό διολισθαίνει σε συζήτηση για “σιωπηρή προκατάληψη” ή “ασυνείδητη προκατάληψη”, οι οποίοι είναι όροι δανεισμένοι από την ψυχολογία που δεν έχουν σαφή και άμεση εφαρμογή στα “μεροληπτικά σύνολα δεδομένων”. Αλλά δεν αρκεί να πούμε, “τα μοντέλα εκπαιδεύονται σε προκατειλημμένα σύνολα δεδομένων” ή “η ΤΝ αντικατοπτρίζει τις ιστορικές κοινωνικές διακρίσεις και τις πολιτικές μας”.
Το ζήτημα δεν είναι ότι αυτά τα πράγματα δεν είναι (μερικές φορές, συχνά) αληθινά- είναι ότι δεν μπορεί να είναι η συνολική εικόνα. Η κατανόηση της μεροληψίας στην ΤΝ απαιτεί, για παράδειγμα, να μιλήσουμε για τις διάφορες πηγές διακριτικών αποτελεσμάτων. Αυτό μπορεί να είναι το αποτέλεσμα των δεδομένων εκπαίδευσης- αλλά το πώς, ακριβώς, αυτά τα σύνολα δεδομένων μπορεί να είναι προκατειλημμένα είναι σημαντικό, αν μη τι άλλο για τον λόγο ότι ο τρόπος με τον οποίο είναι προκατειλημμένα ενημερώνει για το πώς θα καθορίσετε τη βέλτιστη στρατηγική μείωσης της προκατάληψης. Υπάρχουν και άλλα ζητήματα: πώς σταθμίζονται οι είσοδοι, πού τίθενται τα κατώτατα όρια και ποια αντικειμενική συνάρτηση επιλέγεται. Εν ολίγοις, η συζήτηση γύρω από τους αλγορίθμους με διακρίσεις πρέπει να εμβαθύνει γύρω από τις πηγές του προβλήματος και πώς αυτές οι πηγές συνδέονται με τις διάφορες στρατηγικές μείωσης του κινδύνου.
. . .
Οι παραγωγικές συζητήσεις σχετικά με τη δεοντολογία πρέπει να προχωρήσουν βαθύτερα από τα παραδείγματα ευρείας κλίμακας που περιγράφουν ειδικοί και μη ειδικοί. Ο οργανισμός σας χρειάζεται τους κατάλληλους ανθρώπους στο τραπέζι, ώστε να μπορέσουν να καθοριστούν και να εμβαθύνουν τα πρότυπά του. Ο οργανισμός σας θα πρέπει να παντρέψει γόνιμα τις ποσοτικές και ποιοτικές προσεγγίσεις του για τον μετριασμό των ηθικών κινδύνων, ώστε να μπορέσει να καλύψει τα κενά μεταξύ του σημείου που βρίσκεται τώρα και του σημείου που θέλει να βρεθεί. Στο τέλος της ημέρας, ο ηθικός κίνδυνος ΤΝ δεν είναι νεφελώδης ή θεωρητικός. Είναι συγκεκριμένος. Και αξίζει και απαιτεί ένα επίπεδο προσοχής που υπερβαίνει κατά πολύ την επανάληψη τρομακτικών τίτλων.