Ακόμη και ως επαγγελματίας ηθικός, θα παραδεχτώ ότι δεν είναι εύκολο να ζήσουμε μια ηθική ζωή. Heck, είναι ένα slog κατά καιρούς. Η επιλογή να ζεις καλά σημαίνει να σκέφτεσαι κριτικά τις επιλογές που κάνουν αυτόματα οι περισσότεροι άνθρωποι. Μερικές φορές σημαίνει ότι δεσμεύουμε τα μαθήματα δράσης που δεν απολαμβάνουμε, αντλώντας την παρηγοριά από τη γνώση ότι το μεγαλύτερο καλό έχει σημασία περισσότερο από τις δικές μας άμεσες επιθυμίες. Είναι ένα σωστό και σημαντικό πράγμα που πρέπει να κάνουμε, αλλά ας το παραδεχτούμε: το ηθικό ταξίδι είναι μερικές φορές μοναχικό και δύσκολο.
Μερικές φορές είναι οι ίδιες οι αποφάσεις που μας προκαλούν αγωνία. Πόσο από το εισόδημά μας πρέπει να δώσουμε σε φιλανθρωπικούς σκοπούς; Πρέπει να λάβουμε μια προσοδοφόρα προσφορά εργασίας από μια εταιρεία με καρό ηθικό ιστορικό; Σε άτυχες στιγμές μπορούμε ακόμη και να αντιμετωπίσουμε αδύνατα ηθικά διλήμματα στα οποία δεν υπάρχει τέλεια απάντηση, απλώς μια επιλογή από κακές επιλογές από τις οποίες πρέπει να επιλέξουμε.
Όπως δίδαξε ο Αριστοτέλης, δεν αρκεί να θέλουμε να κάνουμε καλό: αυτό που κάνει ένα άτομο καλό είναι πραγματικά καλά πράγματα. Πρέπει λοιπόν να ακολουθήσουμε τις αποφάσεις μας. Αλλά μπορεί να είναι δύσκολο να μετατραπεί ακόμη και απλές ηθικές αποφάσεις σε δράση. Ένα δια βίου σαρκοφάγο μπορεί να βρει το ηθικό επιχείρημα για τον veganism επιτακτικό, αλλά εξακολουθεί να μην είναι σε θέση να αντισταθεί σε ένα ζουμερό ribeye. Ένας ένοχος έφηβος μπορεί ωστόσο να αγωνιστεί να αποκτήσει την εξαπάτηση σε μια δοκιμή.
Ένα τεχνητό πόδι
Ίσως θα μπορούσαμε να χρησιμοποιήσουμε κάποια βοήθεια. Τι θα συμβεί αν είχαμε έναν αξιόπιστο τεχνητό σύμβουλο, μια αμερόληπτη ηθική AI που θα μπορούσε όχι μόνο να μας περπατήσει μέσα από τις πιο δύσκολες αποφάσεις μας, αλλά και να δώσει πρακτικές συμβουλές για την εφαρμογή αυτών των αποφάσεων στην πραγματική ζωή;
Η ιδέα δεν είναι τόσο μακριά. Ρωτήστε τους Δελφούςένα πρωτότυπο από το μη κερδοσκοπικό Ινστιτούτο Allen για το AI, κάνει ήδη μια εκπληκτικά αξιοπρεπή δουλειά στο να προτείνει απαντήσεις σε ηθικά ερωτήματα. Οι κατασκευαστές του ισχυρίζονται ακρίβεια 98% σε ορισμένα θέματα, αν και πρέπει ίσως να είμαστε σκεπτικοί για τους ισχυρισμούς αυτής της ακρίβειας όταν πρόκειται για ηθική. Τα γενικότερα μοντέλα μεγάλης γλώσσας, όπως το ChatGPT
τις νομικές τους ομάδες. Αλλά δεδομένου του πόσο ευδιάκριτα και άπταιστα τα σύγχρονα LLMs βρίσκονται σε άλλα θέματα, φαίνεται σαφές θα μπορούσε να προσφέρουν ηθικές συμβουλές, αν μόνο τους επιτρέπεται.
Αλλά είναι πραγματικά καλή ιδέα να συμβουλευτείτε το AIS για ηθική καθοδήγηση;
Το κύριο πλεονέκτημα που θα μπορούσε να προσφέρει η τεχνητή ηθική σύμβουλος είναι η προοπτική του αουτσάιντερ. Αυτός είναι, φυσικά, ο κύριος λόγος για τον οποίο συζητάμε δύσκολα προβλήματα με άλλους ανθρώπους, είτε πρόκειται για συνομιλία με έναν αξιόπιστο μέντορα είτε για την προσέλκυση των συμβουλών των ξένων μέσω φόρουμ όπως ο reddit’s I the Asshole; (AITA) Κοινότητα, η οποία είναι πολύ χαρούμενη για να περάσει αναδρομική κρίση σχετικά με τις ενέργειες των αφισών.

Εάν δύο κεφάλια είναι καλύτερα από ένα, σίγουρα περισσότερα κεφάλια είναι ακόμα καλύτερα. Εκπαιδεύτηκε σε εκατομμύρια γραπτά κείμενα από όλο τον κόσμο, ένα AI θα μπορούσε να αντλήσει από τη συλλογική σοφία με ένα ευρύ και διαφορετικό κοινό, βοηθώντας μας να ξεπεράσουμε τις δικές μας προκαταλήψεις, τα blindspots και τους εγωισμένους πειρασμούς. Ίσως οι τριγωνικές ηθικές απόψεις μέσω ενός AI θα μας βοηθούσαν να κάνουμε πιο στοχαστικές επιλογές, τελικά βοηθώντας μας όλοι να αντιμετωπίσουμε ο ένας τον άλλον καλύτερα.
Ακόμα καλύτερα, θα μπορούσαμε να εμπλουτίσουμε το AI με την ηθική σοφία των μεγαλύτερων φιλοσόφων όλων των εποχών. Φανταστείτε ένα σύστημα που όχι μόνο θα μας έλεγε πόσοι άνθρωποι θα εγκρίνουν την απόφασή μας, αλλά και τι ο ίδιος ο Κομφούκιος θα έλεγε γι ‘αυτό. Ένα ευρύ, πλουραλιστικό AI γεμάτο με τη διορατικότητα των ηθικών εμπειρογνωμόνων θα μπορούσε να μας βοηθήσει να φτάσουμε σε νέα επίπεδα ηθικής πολυπλοκότητας.
Πρόβλημα στον φιλοσοφικό παράδεισο
Μια ανησυχία είναι ότι αυτά τα μηχανήματα θα μπορούσαν να είναι πολύ αποτελεσματικά. Για να παραφράσει τον θεωρητικό των μέσων μαζικής ενημέρωσης Marshall McLuhan, κάθε τεχνολογική επέκταση είναι επίσης ένας ακρωτηριασμός. Ίσως θα βρούμε αυτά τα μηχανήματα τόσο βολικά, θα καταλήξουμε να βασιζόμαστε σε αυτά ως ηθικά πατερίτσες, αφήνοντάς μας ανίκανοι να κάνουμε οι ίδιοι δεοντολογικές αποφάσεις. Εάν κάνετε μόνο το σωστό, επειδή ένας υπολογιστής είπε ότι πρέπει, συμπεριφέρεστε θαυμάσια ή απλά γίνετε υποτακτικοί σε έναν ψηφιακό επιτηρητή;
Πρέπει να εμπιστευόμαστε ακόμη και τους τεχνολόγους να εκπαιδεύσουμε με ακρίβεια μηχανές που κατανοούν την ηθική πολυπλοκότητα; Αυτό μπορεί να καταλήξει να είναι μια από τις πιο δύσκολες προκλήσεις στο σύγχρονο AI. Τα πονταρίσματα είναι αναπόφευκτα υψηλότερα για τους ανθρώπους. Ένα AI μπορεί να χάσει την εμπιστοσύνη των καταναλωτών εάν κάνει κάτι λάθος, αλλά αυτό δεν είναι τίποτα σε σύγκριση με τον τρόπο με τον οποίο η προσωπική μας φήμη μπορεί να καταστραφεί από μια άσχημη ηθική απόφαση. Χωρίς πραγματικό μερίδιο στο μέλλον, ένα AI δεν χρειάζεται να ζήσει με το
Οι συνέπειες των συστάσεών του όπως ένας άνθρωπος κάνει.
Απουσία λόγου
Αλλά ίσως η μεγαλύτερη αιτία για δισταγμό είναι πώς ένα AI θα έκανε πραγματικά μια ηθική σύσταση. Η ηθική χρειάζεται λόγους. Εάν θέλετε να υπερασπιστείτε μια συγκεκριμένη άποψη, θα πρέπει να είστε σε θέση να το δικαιολογήσετε. Γιατί η κλοπή είναι λάθος; Επειδή είναι άδικα να στερεί κάποιον από την περιουσία του και να παραβιάζει τα δικαιώματα που η κοινωνία έχει συμφωνήσει ότι έχουν. Γιατί πρέπει να διατηρήσουμε τις υποσχέσεις μας; Επειδή το σπάσιμο τους υπονομεύει τη συλλογική εμπιστοσύνη και παρεμποδίζει την προοπτική της γνήσιας φιλίας, η οποία είναι απαραίτητη για την ευημερία μας.
Η συλλογιστική είναι η πτώση των σημερινών συστημάτων AI. Τα σύγχρονα LLMs δεν καταλαβαίνουν τις έννοιες όπως εμείς: ουσιαστικά χρησιμοποιούν τους τύπους πιθανότητας για να ανατρέψουν και να ανακατασκευάσουν τα λόγια των ανθρώπων που έχουν προηγουμένως καταναλώσει ως δεδομένα κατάρτισης. Το Chatgpt δεν μπορεί να ζυγίσει τα καθήκοντα που εμπλέκονται σε ένα ηθικό δίλημμα, ούτε μπορεί να θεωρήσει πραγματικά το είδος του ατόμου που επιδιώκει να είναι. Το μόνο που μπορεί να κάνει είναι να αντλήσει τις πληροφορίες που έχει τροφοδοτηθεί και να συνδέσει μια εύλογη εξήγηση από αυτό. Αυτή η εξήγηση μπορεί να μοιάζει ακόμη και με έναν έγκυρο λόγο από το εξωτερικό, αλλά χωρίς την κατανόηση του AI πραγματικά
Η κατάσταση, οι αντισταθμίσεις και οι συνέπειες των δεοντολογικών αποφάσεων, είναι δύσκολο να πούμε ότι ένα AI μπορεί πραγματικά να δικαιολογήσει τις συμβουλές του.
Αυτό μπορεί να αλλάξει στο χρόνο. Είναι πιθανό ότι το μελλοντικό AIS θα είναι σε θέση να καταλάβει ποιες λέξεις σημαίνουν πραγματικά και πώς οι ιδέες σχετίζονται μεταξύ τους, πράγμα που σημαίνει ότι μπορούν πραγματικά να αρχίσουν να κατανοούν το πλαίσιο των ηθικών μας ερωτήσεων. Σίγουρα θα μπουν στον πειρασμό να ακούσω τις δεοντολογικές συμβουλές ενός συστήματος που κατάλαβε τον κόσμο πιο βαθιά από ό, τι εγώ. Αλλά μέχρι τότε, προτείνω να αγνοήσουμε τις ηθικές συμβουλές των μηχανών. Τελικά, η ηθική αφορά τον τρόπο με τον οποίο οι άνθρωποι αντιμετωπίζουν άλλους ανθρώπους και άλλα ζωντανά όντα. Μόνο εμείς είμαστε υπεύθυνοι για τις ενέργειές μας και είναι λάθος να παλεύουμε αυτή την ευθύνη σε έναν υπολογιστή. Ο δρόμος για να ζήσουμε καλά δεν είναι ποτέ εύκολος, αλλά για τώρα τουλάχιστον είναι ένας δρόμος που πρέπει να περπατήσουμε κάτω.
Προτεινόμενη φωτογραφία από Miguel Bruna επί Ανυψωμένος