Το πρόβλημα με τους υπολογιστές: παίρνετε ακριβώς αυτό που ζητάτε. Ζητήστε από έναν σερβιτόρο ρομπότ για να εξυπηρετήσει αμέσως το φαγητό του πίνακα οκτώ και ίσως να το ρίξει. Ένα AI που προσπαθεί να σας κερδίσει χρήματα μπορεί να αποφασίσει με τον καλύτερο τρόπο είναι να πουλήσετε το σπίτι σας. Δεν αρκεί να πείτε μηχανές τι να κάνετε. Πρέπει επίσης να τους πείτε τι δεν να κάνω.
Η εκμάθηση του τι πρέπει και δεν πρέπει να κάνουμε απαιτεί χρόνο και πρακτική. Πολλά πρώτα χρόνια εκπαίδευσης είναι πραγματικά η ηθική εκπαίδευση, μια αργή διαδικασία διδασκαλίας των παιδιών από λάθος: Μοιραστείτε τα παιχνίδια σας, μην ψέματα, δεν χτυπάτε. Μπορούμε να κάνουμε το ίδιο για τους τεχνητούς απογόνους μας;
Επιστημονική φαντασία στην πραγματικότητα
Οποιοσδήποτε ανεμιστήρας επιστημονικής φαντασίας θα το αναγνωρίσει ως ακρογωνιαίο λίθο πολλών ταινιών και βιβλίων sci-fi. Σκεφτείτε ότι ο Hal αρνήθηκε να ανοίξει τις πόρτες του Pod Bay ή το Rogue Skynet που ξεκινά τα πυρηνικά πυρηνικά. Ευτυχώς, οι πραγματικές εφαρμογές της ηθικής της μηχανής μέχρι σήμερα είναι λιγότερο δυστοπικά. Δεν χρειαζόμασταν πραγματικά να διδάξουμε στους υπολογιστές από λάθος στην πράξη, αφού τους χρησιμοποιήσαμε κυρίως για συγκεκριμένα και αβλαβή καθήκοντα.
Αλλά το ζήτημα των ηθικών μηχανημάτων είναι πιο πιεστικό τώρα που τα AIS αντιμετωπίζουν πιο περίπλοκα και άσχημα καθορισμένα προβλήματα. Ακόμα κι αν δεν έχουμε ακόμη ασχοληθεί με ανθρωποειδές διαστημικό σκάφος, εξακολουθούμε να θέλουμε να σταματήσουμε ένα chatbot να λέει σε έναν περίεργο χρήστη πώς να κάνει ναπάλμ και να αποτρέψει το γενετικό AIS από, για παράδειγμα, δημιουργώντας άσεμνες εικόνες παιδιών.
Το AIS θα χρειαστεί όλο και περισσότερο να ζυγίζει τα αποτελέσματα και να επιλέξει τη σωστή ηθική πορεία όπου δεν υπάρχουν προφανείς απαντήσεις. Σε ορισμένους τομείς τα πονταρίσματα είναι ακόμα υψηλότερα. Τα ιατρικά, στρατιωτικά και ρομπότ ασφαλείας μπορεί να χρειαστεί να λαμβάνουν αποφάσεις που θα μπορούσαν να βλάψουν βαθιά τους άλλους.
Το πρόβλημα με τους κανόνες
Ένας πρώτος στοχαστής στη συμπεριφορά των ρομπότ ήταν φυσικά ο Isaac Asimov, ο οποίος πρότεινε τους τρεις νόμους της ρομποτικής:
- Ένα ρομπότ μπορεί να μην βλάψει έναν άνθρωπο ή, μέσω αδράνειας, να επιτρέψει σε έναν άνθρωπο να βλάψει.
- Ένα ρομπότ πρέπει να υπακούει σε εντολές που του έδωσαν τα ανθρώπινα όντα, εκτός από τις αν αυτές οι εντολές θα έρχονταν σε σύγκρουση με τον πρώτο νόμο.
- Ένα ρομπότ πρέπει να προστατεύει τη δική του ύπαρξη, εφ ‘όσον αυτή η προστασία δεν έρχεται σε αντίθεση με τον πρώτο ή το δεύτερο νόμο.
Οι νόμοι είναι ελκυστικοί, αλλά στην πραγματικότητα τα πράγματα δεν είναι τόσο απλά. Πράγματι, πολλές από τις ιστορίες του Asimov περιγράφουν πώς αυτοί οι απλοί νόμοι καταρρέουν στην πράξη. Εάν επιμένουμε ότι ένα ρομπότ δεν πρέπει ποτέ να βλάψει έναν άνθρωπο, πρέπει να ξεκινήσουμε εξηγώντας ακριβώς αυτό που εννοούμε με τον «άνθρωπο» και το «κακό». Θα υπάρξουν κάποια αδέξια κενά. Η χειρουργική επέμβαση, για παράδειγμα, μπορεί να σώσει μια ζωή, αλλά το λεπτό που κάνετε την τομή που βλάπτετε τον ασθενή. Και τι γίνεται αν η βλάβη είναι αναπόφευκτη; Πρέπει ένα ρομπότ να σπάσει το χέρι κάποιου για να τους διασώσει από μια φλογερή συντριβή ή να τους αφήσει να πεθάνουν από την αδράνεια; Οι νόμοι του Asimov απαγορεύουν και τα δύο.
Ίσως θα καταλήξουμε στο συμπέρασμα ότι τα ρομπότ πρέπει βλάπτουν τους ανθρώπους σε ορισμένες περιπτώσεις. Αν ναι, πρέπει να ξαναγράψουμε τους κανόνες. Εδώ βρίσκεται το πρόβλημα: Οι κανόνες δεν μπορούν ποτέ να καλύψουν πλήρως την πολυπλοκότητα των ηθικών αποφάσεων. Το βλέπουμε και με θρησκευτικά διατάγματα. Ακόμα κι αν επιλέξετε να ακολουθήσετε, για παράδειγμα, τις Δέκα Εντολές, δεν προσφέρουν αρκετές λεπτομέρειες για να καθοδηγήσουν κάθε ανθρώπινη απόφαση. Αντ ‘αυτού δημιουργούμε χιλιάδες νόμους για να καλύψουμε τα κενά, και ακόμη και τότε χρειάζονται δικηγόρους, επιτροπές και δικαστές για να ερμηνεύσουν αυτά τα κείμενα.

Εναλλακτικές προσεγγίσεις
Αντί για αυστηρούς κανόνες, ίσως θα μπορούσαμε να δώσουμε στις AIS πιο χαλαρές αρχές που λειτουργούν ως καθοδηγητικά αστέρια. Για παράδειγμα, θα μπορούσαμε να ζητήσουμε από τα ρομπότ να κάνουν ό, τι θα έφεραν την μεγαλύτερη ευτυχία στον κόσμο ή να λαμβάνουν αποφάσεις που να βελτιώνουν πάντα την παρτίδα των χειρότερων.
Αλλά ποιες αρχές πρέπει να επιλέξουμε; Οι ηθικοί δεν μπορούν να συμφωνήσουν σε μια απάντηση, οπότε η επιλογή μόνο μιας προοπτικής έναντι άλλου φαίνεται αυθαίρετη.
«Ίσως δεν υπάρχει ενιαία απάντηση στο ζήτημα της ηθικής του οποίου ή της ηθικής πρέπει να εφαρμοστεί στο AI. Ακριβώς όπως οι άνθρωποι έχουν διαφορετικό ηθικό
πρότυπα, δεν υπάρχει κανένας λόγος για τον οποίο όλα τα υπολογιστικά συστήματα πρέπει να συμμορφώνονται με το
Ο ίδιος κώδικας συμπεριφοράς. ‘ – Wendell Wallach & Colin Allen.
Μια άλλη επιλογή είναι να εγκαταλείψετε την ιδέα της άμεσης διδασκαλίας και, αντίθετα, να αφήσετε τα ρομπότ να μάθουν με παράδειγμα. Εξάλλου, αυτό είναι το πώς τα συστήματα AI μαθαίνουν σήμερα: τα τροφοδοτούμε τεράστια ποσά δεδομένων και τα εκπαιδεύουμε για να βρούμε μοτίβα. Αλλά μπορεί κανείς να πει πραγματικά ότι ήταν πάντα καλό άτομο; Οι άνθρωποι δεν είναι τέλεια ηθικά παραδείγματα. Εξαπατάμε, ψέμα και κλέβουμε. Θέλουμε πραγματικά ένα ισχυρό AI να υιοθετήσει τις χειρότερες συνήθειες μας;
Ιδανικό σε πραγματικό
Σε έναν ιδανικό κόσμο, πιθανότατα θα έπαιρνα ένα σύνθημα από το πώς διδάσκουμε την ηθική στα παιδιά. Είχαμε βάλει AIS σε ένα σύντομο μεταφορικό προβάδισμα, παρακολουθώντας στενά τις συμπεριφορές τους. Θα προσπαθούσαμε να ενσταλάξουμε κάποιες θεμελιώδεις αρχές, στη συνέχεια να τους επιτρέψουμε να ασκούν κοσμικές ηθικές αποφάσεις. Μπορώ να φορέσω πιτζάμες σε κηδεία; Πρέπει να κόψω το γκαζόν στις 3 π.μ.; (Ακόμα και πριν το ChatGpt, το Ινστιτούτο Allen’s Δελφοί AI Μήπως μια αξιοπρεπή δουλειά στην απάντηση σε αυτές τις απλές ερωτήσεις ήδη.) Μόλις το νεανικό ΑΙ μας δείχνει ότι γνωρίζει τα βασικά, μπορούμε αργά να του δώσουμε περισσότερη άδεια για να λάβουμε πιο σημαντικές αποφάσεις, εισέρχονται για να το διορθώσουμε όπου είναι απαραίτητο. Ίσως σε κάποιο σημείο, ίσως να είμαστε σίγουροι ότι μπορεί να κάνει εκλεπτυσμένες ηθικές επιλογές μόνο.
Ωστόσο, η πορεία της ηθικής της μηχανής δεν θα τρέξει αυτό ομαλά. Οι εμπορικές πιέσεις θα προωθήσουν το AI σε μη φορέματα εδάφους πριν μπορέσουμε να ακολουθήσουμε αυτό το εξιδανικευμένο εκπαιδευτικό πρόγραμμα. Στην πράξη, μπορεί να χρειαστεί να κολλήσουμε μαζί την ηθική εκπαίδευση, ωστόσο μπορούμε.
Ορισμένες οδηγίες από την κορυφή προς τα κάτω μπορεί να εξακολουθούν να είναι χρήσιμες, ίσως με τη μορφή κατευθυντήριων αρχών ή ευρετικών και όχι σκληρών και γρήγορων κανόνων. Και παρά τις ηθικές μας αποτυχίες, θα μπορούσαμε να προσφέρουμε τις δικές μας συμπεριφορές ως δεδομένα ηθικής εκπαίδευσης. Αλλά περισσότερο από οτιδήποτε άλλο, η ηθική ρομπότ θα είναι θέμα δοκιμής και σφάλματος. Ακόμα κι αν τελικά επιτύχουμε κάποια επιτυχία, κάποιος θα θέλει πάντα να βγάλει τις χειροπέδες. Ο συγγραφέας Ted Chiang είναι απαισιόδοξος για την προοπτική για ηθικό AI: «Θα είναι πάντα δυνατή η κατασκευή του AI που επιδιώκει την αξία των μετόχων πάνω απ ‘όλα, και οι περισσότερες εταιρείες θα προτιμούν να χρησιμοποιούν αυτό το AI αντί για ένα περιορισμένο από τις αρχές σας». Ο κανονισμός θα αποδυναμώσει αυτόν τον πειρασμό – η ΕΕ, για παράδειγμα, έχει μόλις συμφωνήσει τη νέα του πράξη AI – αλλά ο κανονισμός συνήθως διαρκεί περισσότερο χρόνο για να εγκατασταθεί από ό, τι θα θέλαμε και είναι πάντα ατελής.
Έτσι, το μονοπάτι για το ηθικό AI θα είναι απότομο και βραχώδες, που χαρακτηρίζεται από μικρές νίκες και περιστασιακά τρομερά λάθη. Οι μηχανές διδασκαλίας για να συμπεριφέρονται ηθικά θα μας αναγκάσουν να κάνουμε δύσκολες ερωτήσεις σχετικά με τις δικές μας ηθικές επιλογές. Οι δυσάρεστες αποφάσεις βρίσκονται μπροστά. Αλλά με την έντονη ταχύτητα του AI τώρα φαινομενικά μη αναστρέψιμη, είναι δουλειά που δεν μπορούμε να παραβλέψουμε. Ένα προηγμένο AI χωρίς ηθικά προστατευτικά μηνύματα ή εμπειρία δεν θα ήταν απλώς αναποτελεσματική: θα μπορούσε να είναι βαθιά επικίνδυνη.
Προτεινόμενη φωτογραφία από Clark Tibbs επί Ανυψωμένος