Η Ηθική της Τεχνητής Νοημοσύνης. Μπορεί να προβλέπει τις προθέσεις μας;

Τι θα γινόταν αν η τεχνητή νοημοσύνη καταλάβαινε τις προθέσεις μας και προέβλεπε τις επιλογές μας; Αυτό δεν είναι επιστημονική φαντασία, αλλά μια εξέλιξη που βρίσκεται ήδη σε εξέλιξη. Και πραγματικά κινδυνεύουμε να αντικατασταθούμε και στις ηθικές μας επιλογές.

Αγαπητέ αναγνώστη, γνωρίζεις ότι η τεχνητή νοημοσύνη (AI) γνώριζε ήδη, πριν αποφασίσεις, ότι θα διάβαζες το Compass και πιθανώς αυτό το άρθρο σήμερα; Αυτή είναι η ουσία ενός υπαινικτικού άρθρου των ερευνητών του Cambridge Yaqub Chaudhary και Jonnie Penn, με τίτλο Beware of the economics of intention: harvesting and commodification of intent through large language models που δημοσιεύθηκε στις 30 Δεκεμβρίου 2024.

Οι δύο μελετητές δηλώνουν ότι μετακινούμαστε από την οικονομία της προσοχής στην οικονομία της πρόθεσης. Όσον αφορά την πρώτη, είναι γνωστό ότι οι ιστότοποι, τα κοινωνικά δίκτυα, οι συνομιλίες κ.λπ. καταγράφουν τι κοιτάμε, τι βλέπουμε και τι αγοράζουμε και στέλνουν αυτά τα μεγάλα δεδομένα στις εταιρείες, ώστε να μπορούν να χρησιμοποιούν διαφημίσεις, προτεινόμενα άρθρα κ.λπ. για να κατευθύνουν τις αγορές μας, με βάση τη γνώση που έχουν για τις προτιμήσεις μας. Τώρα γίνεται το επόμενο βήμα: η τεχνητή νοημοσύνη θα προβλέπει τις προθέσεις μας. Δεν παρατηρεί πλέον απλώς ό,τι παρατηρούμε, αλλά αλληλεπιδρά μαζί μας για να μας γνωρίσει καλύτερα και να προβλέψει τις κινήσεις μας. Και πώς αλληλεπιδρά η τεχνητή νοημοσύνη μαζί μας; Με προσωπικούς βοηθούς ή ψηφιακούς βοηθούς (έξυπνους βοηθούς) - σκεφτείτε τον βοηθό της Google ή την Alexa ή τη Siri - και με chat bots, δηλαδή λογισμικό προγραμματισμένο να μιλάει σε εμάς τους ανθρώπους. Και τα δύο συστήματα καταγράφουν τεράστιο όγκο πληροφοριών για εμάς: επιλογές, προτιμήσεις και συνήθειες που αφορούν τον τρόπο ζωής, την κατανάλωση, τα ενδιαφέροντα, τις συναισθηματικές καταστάσεις, το που βρισκόμαστε, ποιους συναντάμε, τι διαβάζουμε κ.λπ. Τις καταγράφουν με μεγάλη ακρίβεια και για μεγάλα χρονικά διαστήματα επειδή τους μιλάμε, αλληλεπιδρούμε μαζί τους συνεχώς και για πολλούς σκοπούς. Με λίγα λόγια, αυτοί οι προσωπικοί βοηθοί και τα chatbots μας γνωρίζουν καλύτερα από το Facebook (Meta).

pa ⋅ picture alliance

Και ας μπούμε στο θέμα: όλη αυτή η γνώση για εμάς θα χρησιμοποιηθεί από την τεχνητή νοημοσύνη για να προβλέπει τις επιλογές μας και να μας τις προτείνει πριν τις κάνουμε: από το τι θέλουμε μέχρι το τι θα θέλαμε να θέλουμε. Το άρθρο δίνει το εξής παράδειγμα όπου ένας φωνητικός βοηθός αλληλεπιδρά με τον χρήστη ως εξής:  "Είπες ότι αισθάνεσαι καταπονημένη, να σου κλείσω εκείνο το εισιτήριο για τον κινηματογράφο που συζητήσαμε;" Και γιατί να σταματήσετε στον κινηματογράφο; Πιθανοί διάλογοι, που επινοήσαμε εμείς, είναι επίσης οι εξής: "Είπατε ότι έχετε βαρεθεί τη γυναίκα σας. Έχεις σκεφτεί ποτέ μια νέα ζωή χωρίς αυτήν; Είσαι ακόμα νέος"- "Είσαι έγκυος, είναι το δεύτερο παιδί σου, συν το ότι εσύ και ο σύντροφός σου πρέπει ακόμα να τελειώσετε με την πληρωμή του στεγαστικού δανείου. Σκεφτήκατε ποτέ την έκτρωση; Αν θέλετε, μπορώ να σας διαβάσω μερικά άρθρα σχετικά με το θέμα".

... Όλα αυτά δεν είναι μελλοντικά, αλλά παρόντα. Οι προγραμματιστές της εφαρμογής App Intents της Apple για τη σύνδεση εφαρμογών με τη Siri (τη φωνητικά ελεγχόμενη προσωπική βοηθό της Apple) έχουν συμπεριλάβει πρωτόκολλα στην εφαρμογή για την "πρόβλεψη των ενεργειών που μπορεί να κάνει κάποιος στο μέλλον [και] να προτείνει την πρόθεση που διατυπώνει η εφαρμογή".

Humanoid Robot Keeps Getting Fired From His Jobs - WSJ

Οι επιπτώσεις αυτής της διαδικασίας, η οποία θα οδηγήσει από το προγνωστικό στο κανονιστικό, είναι ατελείωτες. Ακόμη και στον βιοηθικό τομέα. Τον Ιανουάριο του περασμένου έτους, το ακόλουθο άρθρο δημοσιεύθηκε στο επιστημονικό περιοδικό The American Journal of Bioethics: A Personalized Patient Preference Predictor for Substituted Judgments in Healthcare: Technically Feasible and Ethically Desirable (Ένας εξατομικευμένος δείκτης πρόβλεψης της προτίμησης των ασθενών για υποκατάστατες κρίσεις στην υγειονομική περίθαλψη: Τεχνικά εφικτή και ηθικά επιθυμητή).

Τι πρέπει να κάνετε όταν ένας ασθενής δεν είναι πλέον σε θέση να κατανοήσει; Ναι, υπάρχουν προκαταρκτικές δηλώσεις θεραπείας (DAT). Τι γίνεται όμως αν λείπουν; Και, ακόμη και αν υπάρχουν, τι γίνεται αν είναι ασαφείς, διφορούμενες, ελλιπείς; Ναι, υπάρχει η μορφή του διαχειριστή. Αλλά αν και αυτός λείπει, ή ακόμη και αν υπήρχε, ποιος μπορεί να πει ότι θα ήταν αξιόπιστος στην περιγραφή των επιθυμιών του ασθενούς; Ομοίως, αν σκεφτούμε τους συγγενείς. Εδώ λοιπόν έρχεται να μας σώσει η τεχνητή νοημοσύνη η οποία, στην προκειμένη περίπτωση, ονομάζεται Εξατομικευμένη Πρόβλεψη Προτίμησης Ασθενών: το μοντέλο 4P.

A new friend. | maxon group

Οι συγγραφείς του άρθρου που μόλις αναφέρθηκε προτείνουν "τη χρήση μηχανικής μάθησης για την εξαγωγή των αξιών ή των προτιμήσεων των ασθενών από δεδομένα που λαμβάνονται σε ατομικό επίπεδο και παράγονται κυρίως από τους ίδιους, στα οποία είναι πιθανό να είναι κωδικοποιημένες οι προτιμήσεις τους (έστω και σιωπηρά)". Για να το απλοποιήσουμε και να το παραδειγματίσουμε: έχετε ένα ατύχημα και καταλήγετε σε κώμα. Οι γιατροί ρωτούν την Alexa ποια επιλογή θα κάνατε σε εκείνη τη συγκυρία. Αρχικά η Alexa συγκεντρώνει όλα τις αναγνώσεις και τα βίντεο σας σχετικά με το θέμα της ευθανασίας και που μπορεί να σας άρεσαν, καθώς και τις συζητήσεις που είχατε μαζί της ή με άλλους για το θέμα αυτό. Δεύτερον, συγκρίνει αυτό το πακέτο δεδομένων με την κάπως ταπεινή σας ιδιοσυγκρασία και την όχι πάντα ηλιόλουστη στάση σας απέναντι στη ζωή, όπως αυτή ερμηνεύεται από τις ταινίες σας, το διάβασμά σας, τα καλλιεργημένα ενδιαφέροντά σας, τα e-mails και τις αναρτήσεις σας, τις φωτογραφίες ηλιοβασιλέματος που αναρτάτε στο Instagram, τις αγορές σας σε γκόθικ-ανατριχιαστικά ρούχα στο Amazon, τις δυστυχισμένες φράσεις τύπου Leopardi (ο Λεοπάρντι, σύμφωνα με τη Wikipedia, υπήρξε πατέρας του μηδενισμού και της απαισιοδοξίας) που εκτοξεύετε στον ουρανό από προσωρινή απελπισία. Και έτσι, τελικά, σε ένα δισεκατομμυριοστό του δευτερολέπτου βρίσκεσαι σε ένα φέρετρο επειδή έτσι αποφάσισε η Alexa. Ή μάλλον: ποιος προγραμμάτισε την Alexa. Και λίγη σημασία έχει αν σε εκείνη τη συγκυρία θα μπορούσατε επίσης να είχατε αποφασίσει διαφορετικά από τις προηγούμενες αποφάσεις σας, επειδή "οι υποθετικές καταστάσεις δεν αντικατοπτρίζουν απαραίτητα τι επιλέγουν οι άνθρωποι σε πραγματικές καταστάσεις"...

ΚΑΙ ΕΔΩ ΣΤΑΜΑΤΩ. Ο ΘΕΟΣ ΝΑ ΜΗΝ ΠΑΡΕΙ ΤΟ ΧΕΡΙ ΤΟΥ, Ή ΤΟ ΣΥΜΠΑΝ, ΑΝ ΑΓΑΠΑΤΕ ΕΤΣΙ.

Πηγή: La Nuova Bussola Quotidiana 

Leave a Reply