Πώς χρεοκοπήσατε;
Δύο τρόποι. Σταδιακά, ξαφνικά.Χέμινγουεϊ, Ο ήλιος αυξάνεται επίσης
Ο αείμνηστος Gordon Moore παρατήρησε ότι η υπολογιστική δύναμη διπλασιάζεται κάθε δύο χρόνια. Για μεγάλο χρονικό διάστημα θα συγχωρέσατε για μόλις παρατηρήσετε. Οι συσκευές μας έγιναν ταχύτερες και μικρότερες, σίγουρα, αλλά τελικά ήταν ακόμα υπολογιστές που κάνουν πράγματα υπολογιστών, ακριβώς πιο αποτελεσματικά.
Αλλά όπως περιγράφει ο Hemingway, οι εκθετικές καμπύλες ξεκινούν αργά και στη συνέχεια γίνονται γρήγορα. Ξαφνικά βλέπουμε εκπληκτική αλλαγή. Ο ισχυρός cloud computing, σε συνδυασμό με νέες τεχνικές προγραμματισμού και ωκεανούς δεδομένων, γράφει πειστικά δοκίμια, εξετάσεις περνώντας και ζωγραφική που επιβάλλει εικόνες κατόπιν αιτήματος. Ο Bill Gates λέει ότι αυτά τα γενετικά συστήματα AI είναι Η πιο σημαντική τεχνολογική πρόοδος σε δεκαετίες. Έχει δίκιο και η πρόοδος είναι πιθανό να επιταχυνθεί από εδώ. Αλλά ως συστήματα AI ώριμα θέτουν επίσης βαθιά ερωτήματα για το μέλλον που θέλουμε να κατοικήσουμε και ποιος θα το κατασκευάσει.
Προκατάληψη
Τα σύγχρονα συστήματα AI καταναλώνουν τεράστιες ποσότητες δεδομένων, δημιουργώντας προγνωστικά μοντέλα που στη συνέχεια λειτουργούν με νέα σύνολα δεδομένων. Πείτε ότι χτίζετε ένα AI που προβλέπει αν ένας εγκληματίας μπορεί να επαναληφθεί. Για να εκπαιδεύσετε το σύστημά σας, θα τα τροφοδοτήσετε δεδομένα σχετικά με προηγούμενες συλλήψεις, προτάσεις και επιτόκια επανεξέτασης και θα το ζητήσετε να βρείτε μοτίβα. Θα βρει πιθανώς αυτά τα σχέδια με ευκολία, αλλά όχι για τους λόγους που ελπίζουμε. Τα δεδομένα περιγράφουν πάντα το παρελθόν και το παρελθόν είναι προκατειλημμένο.
Χάρη στον συστηματικό ρατσισμό στην αστυνομία και στα δικαστήρια, ο αλγόριθμος μας θα μάθει ότι οι άνθρωποι από ορισμένες κοινότητες έχουν ιστορικά συλληφθεί συχνότερα και καταδικάστηκαν πιο έντονα. Είναι πιθανό, λοιπόν, το AI μας θα προτείνει να συνεχίσουμε αυτό το μοτίβο. Ένα σύστημα που φαίνεται ουδέτερο – μόνο αριθμοί και κώδικας – θα κάνει το ίδιο προκατειλημμένο συστάσεις. Μετά από όλα, αυτό είναι όλο που διδάχθηκε ποτέ.
Αυτό είναι ακριβώς αυτό που συνέβη με την Compas, ένα εγκληματικό σύστημα κινδύνου που χρησιμοποιείται σε όλες τις ΗΠΑ. Ενα Παρουσίαση propublica Υποστήριξε ότι το λογισμικό ήταν προκατειλημμένο εναντίον μαύρων κατηγορουμένων, προβλέποντας ότι θα ήταν πιο πιθανό να διαπράξουν μελλοντικά εγκλήματα από άλλες ομάδες.
Τα ευρήματα εξακολουθούν να αμφισβητούνται, αλλά η Compas δεν είναι απομονωμένη περίπτωση. Όταν ο ερευνητής της MIT Joy Buolamwini βρήκε συστήματα αναγνώρισης προσώπου δεν αναγνώρισε το σκοτεινό της δέρμα, δημιούργησε μια λευκή μάσκα και φορούσε αυτό. Το σύστημα την αναγνώρισε εύκολα. Το 2015, η Amazon διαλύει έναν αλγόριθμο προσλήψεων που σημάδεψε υποψηφίους για να παρακολουθήσουν τα κολέγια όλων των γυναικών. Και στις δύο περιπτώσεις, αυτά τα συστήματα απλώς αντανακλούσαν τα λοξά δεδομένα εκπαίδευσης που είχαν τροφοδοτηθεί. Το σύστημα αναγνώρισης του προσώπου είχε μάθει να αναγνωρίζει κυρίως τους λευκούς. Το σύστημα μίσθωσης ανακάλυψε ότι η Amazon είχε ιστορικά παραβλέψει τις γυναίκες για τεχνικούς ρόλους.
Μαθαίνοντας από αυτά τα προβλήματα, οι τεχνολόγοι εργάζονται σκληρά για να μειώσουν την προκατάληψη από τα δεδομένα κατάρτισης και τους αλγόριθμους μηχανικής μάθησης. Αλλά αυτό αποδεικνύεται δύσκολο. Υπάρχουν πολλές στατιστικές μεθόδους, αλλά η μεγαλύτερη πρόκληση είναι φιλοσοφική: πρέπει να καθορίσετε τι σημαίνει δικαιοσύνη. Κάντε ένα σύστημα πιο δίκαιο από έναν ορισμό και συχνά δημιουργείτε αδικία προς μια άλλη κατεύθυνση. Έτσι, η αντιμετώπιση της προκατάληψης συχνά σημαίνει να επιλέξετε ποιες μεροληψίες για να διαγράψετε και ποια είναι μια σύνθετη, ανθρώπινη και κοινωνική απόφαση που οι υπολογιστές δεν είναι κατάλληλοι για να απαντήσουν.
Εξηγώντας τις αποφάσεις AI
Ακόμα κι αν το AI μας είναι δίκαιο, μπορεί να εξηγήσει τον εαυτό του;
Τα σύγχρονα συστήματα AI δεν «σκέφτονται» με τον τρόπο που κάνουμε, οπότε αγωνίζονται να περιγράψουν τις αποφάσεις τους με λογικούς όρους που μπορούν να καταλάβουν οι άνθρωποι. Τα καλύτερα περισσότερα συστήματα μπορούν να προσφέρουν για τώρα είναι μια σειρά αριθμών (βάρη κόμβων σε ένα νευρωνικό δίκτυο), τα οποία δεν έχουν νόημα σε απομόνωση.
Ωστόσο, η AI επηρεάζει όλο και πιο κρίσιμες ανθρώπινες αποφάσεις, όπως η κατανομή των ιατρικών πόρων ή η έγκριση ή η άρνηση των δανείων και των θέσεων εργασίας των ανθρώπων. Με επιπτώσεις σε αυτό το σοβαρό, είναι σωστό να περιμένουμε από αυτά τα συστήματα να εξηγήσουν τις αποφάσεις τους. Μέχρι εκείνη την εποχή, υπάρχει μια δίκαιη περίπτωση για να υποστηρίξουμε ότι τα AIS δεν πρέπει να χρησιμοποιούνται όταν οι ζωές και τα μέσα διαβίωσης βρίσκονται στη γραμμή.
Ακόμη χειρότερα, μερικές εξόδους AI είναι απλά λανθασμένες. Τα νέα μοντέλα γλωσσών όπως το ChatGPT είναι διάσημα για το «ψευδαισθήσεις»: ένας χαριτωμένος ευφημισμός για αυτό που πραγματικά συμβαίνει, κάτι που είναι απόλυτη κατασκευή πληροφοριών. Ζητήστε από το ChatGpt να δώσει αναφορές για, ας πούμε, μια επιστημονική θεωρία και θα δημιουργήσει ακαδημαϊκές αναφορές με εύλογους τίτλους και συγγραφείς. Αλλά ο τοπικός σας βιβλιοθηκονόμος δεν θα μπορέσει ποτέ να βρει αυτά τα χαρτιά, επειδή απλά δεν υπάρχουν.
Είτε συνειδητά είτε όχι, οι κατασκευαστές της AI αποφάσισαν να δώσουν προτεραιότητα στην αξιοπιστία της ακρίβειας. Σημαίνει ότι τα συστήματα AI είναι εντυπωσιακά, αλλά σε έναν κόσμο που μαστίζεται από συνωμοσία και παραπληροφόρηση, αυτή η απόφαση εμβαθύνει μόνο το πρόβλημα.
Μυστικότητα
Η τεχνολογία έχει διαμορφώσει πολύ καιρό την ιστορία – και ακόμη και την ίδια την ιδέα – της ιδιωτικής ζωής. Η έλευση της φωτογραφίας προκάλεσε τους πρώτους αμερικανικούς νόμους και τα τελευταία χρόνια η ηλεκτρονική παρακολούθηση επηρέασε περαιτέρω τη συζήτηση. Δεν αποτελεί έκπληξη λοιπόν ότι οι ρυθμιστικές αρχές έχουν δημιουργήσει νέες προστασίες απορρήτου, αλλά ακόμη και αυτές θα μπορούσαν να ανατραπούν από το ισχυρό AI.
Τα δεδομένα είναι συχνά ανώνυμα για την προστασία της ιδιωτικής ζωής, αλλά αυτό είναι λιγότερο αποτελεσματικό από ό, τι μπορούμε να ελπίζουμε. Οι ειδικοί της ιδιωτικής ζωής κατάφεραν να εντοπίσουν άτομα από ανώνυμα αρχεία με ανησυχητική ευκολία. Σε μια περίπτωση, δύο ερευνητές συνδυάζουν τα δεδομένα Netflix και IMDB για να εντοπίσουν τους χρήστες και να συναγάγουν τις πολιτικές τους κλήσεις. Σε ένα άλλο, ο καθηγητής Latanya Sweeney της Carnegie Mellon διαπίστωσε ότι θα μπορούσε να εντοπίσει περισσότερο από το ήμισυ του πληθυσμού των ΗΠΑ χρησιμοποιώντας μόνο δημόσια στοιχεία για το φύλο, την ημερομηνία γέννησης και την πόλη διαμονής.
Ένα μελλοντικό AI οπλισμένο με τα σωστά δεδομένα θα μπορούσε να είναι ακόμα καλύτερα στον εντοπισμό ατόμων από αυτούς τους ειδικευμένους ερευνητές. Ακόμη και το CCTV Footage θα μπορούσε να αναλυθεί αναδρομικά και να χαρτογραφηθεί σε μια βάση δεδομένων αναγνώρισης προσώπου, δημιουργώντας έναν χάρτη των ιστορικών σας κινήσεων και έναν κατάλογο ατόμων με τους οποίους ξοδεύετε χρόνο. Τα δεδομένα που είναι αβλαβή σήμερα ενδέχεται να σας κάνουν να ανιχνεύσετε αύριο.
Επιβλέποντας το μέλλον του AI
Πέρα από τα σύγχρονα ζητήματα κρύβονται βαθύτερες μακροπρόθεσμες ερωτήσεις. Τι πρέπει και δεν πρέπει να αυτοματοποιήσουμε; Πρέπει να δημιουργήσουμε θανατηφόρα αυτόνομα όπλα, ή θα πρέπει να αναλάβει πάντοτε έναν άνθρωπο για αποφάσεις ζωής και θανάτου; Πώς θα κερδίσουμε τα προς το ζην και ακόμη και θα βρούμε νόημα εάν το AIS εξαλείψει τις θέσεις εργασίας; Και αν δημιουργήσουμε ποτέ AIS που είναι πιο έξυπνοι από εμάς, θα εκτιμήσουν τα ίδια πράγματα που εκτιμούμε – κυρίως η ίδια η ανθρώπινη ζωή;
Αυτά είναι βαθιά ερωτήματα που αξίζουν τη δημοκρατική συζήτηση. Αλλά σήμερα μόνο ένα μικροσκοπικό σύμπλεγμα εταιρειών AI, που συχνά χρηματοδοτείται από τους πλουσιότερους και ισχυρότερους ανθρώπους του κόσμου, καλούν τα πλάνα. Είναι αυτό το μέλλον που θέλουμε;
Κάνω τα προς το ζην βοηθώντας τους τεχνολόγους κατανοούν τις κοινωνικές, πολιτικές και ηθικές επιπτώσεις του AI και άλλων αναδυόμενων τεχνολογιών. Τα τελευταία χρόνια έχω δει κάποια πρόοδο, αν και ο τομέας της τεχνολογικής δεοντολογίας εξακολουθεί να είναι εκκολαπτόμενη. Αυτό που πραγματικά χρειαζόμαστε τώρα είναι εκτός βοήθειας.
Μια απάντηση είναι να ρυθμίσετε το AI. Αυτό αρχίζει να συμβαίνει – ιδιαίτερα στην ΕΕ – αλλά η πρόοδος είναι μέτρια. Οι πολιτικοί βλέπουν το AI ως μοχλό οικονομικής ανάπτυξης και ανησυχούν για την παρεμπόδιση της ανάπτυξής του. Ακόμα και τότε, Ο κανονισμός δεν είναι ποτέ αρκετός από μόνη της. Η σοβαρότητα και η επείγουσα ανάγκη των ερωτήσεων AIS θέτει σημαίνει ότι χρειαζόμαστε επίσης μια ευρύτερη δημόσια συζήτηση.
Τώρα λοιπόν είναι η ώρα να δώσουμε προσοχή σε αυτό που συμβαίνει με το AI και να θέσω ερωτήσεις. Ρωτήστε πώς χρησιμοποιείται στους δημόσιους χώρους σας, στα σχολεία σας, στους χώρους εργασίας σας, από την αστυνομία σας, από τις κυβερνήσεις σας, από τους στρατιωτικούς σας. Προτρέψτε εκείνους που βρίσκονται στην εξουσία να δικαιολογούν τις αποφάσεις τους και να συζητήσουν τις διασφαλίσεις που έχουν θέσει σε εφαρμογή για να εξασφαλίσουν ότι τα αποτελέσματα του AI είναι θετικά. Τα ζητήματα που εμπλέκονται είναι πολύ σημαντικά για να αφεθούν στους τεχνολόγους.
Προτεινόμενη φωτογραφία από Βαθύτατος επί Ανυψωμένος
Το Post Artificial Intelligence: Ποιος κατέχει το μέλλον; εμφανίστηκε πρώτα στο Ethical.net.