Μια διαφημιστική πινακίδα προσπαθεί να σου πουλήσει κάτι. Το ίδιο κάνει και ένας πωλητής μεταχειρισμένων αυτοκινήτων.
Όμως, όσο καλοδουλεμένη και να είναι η προώθηση, γνωρίζεις πολύ καλά ότι το κίνητρο είναι το κέρδος και μπορείς να αποχωρήσεις ανά πάσα στιγμή.
Τι θα γινόταν αν αυτή η πώληση ήταν αόρατη, εκμεταλλευόταν τους δικούς σου φόβους και ματαιοδοξίες και σου μεταφερόταν με μια φωνή που ακούγεται σαν εκείνη ενός έμπιστου φίλου;
Η γενετική τεχνητή νοημοσύνη (AI) έχει αλλάξει εντελώς τους κανόνες της πειθούς: τα chatbots μπορούν πλέον να παραδίδουν ένα εξατομικευμένο, προσαρμοστικό και στοχευμένο μήνυμα, βασισμένο στις πιο προσωπικές λεπτομέρειες της ζωής σας.
Τα μεγάλα γλωσσικά μοντέλα (LLMs) μπορούν να στοχεύουν με ακρίβεια τα μηνύματα αντλώντας στοιχεία από τις αναρτήσεις και τις φωτογραφίες σας στα social media.
Τα σύγχρονα συστήματα τεχνητής νοημοσύνης, και ιδιαίτερα τα LLMs, έχουν τη δυνατότητα να δημιουργούν εξαιρετικά εξατομικευμένα μηνύματα. Μέσα από δεδομένα που συλλέγονται από τα μέσα κοινωνικής δικτύωσης, προηγούμενες συνομιλίες και προσωπικές πληροφορίες, τα συστήματα αυτά μπορούν να κατανοήσουν τις ανάγκες, τις συνήθειες, ακόμη και τις αδυναμίες ενός ανθρώπου. Έτσι, η πειθώ δεν βασίζεται πλέον σε γενικά διαφημιστικά μηνύματα, αλλά σε στοχευμένες προσεγγίσεις προσαρμοσμένες στον κάθε χρήστη ξεχωριστά.
Το πιο ανησυχητικό στοιχείο είναι ότι αυτή η διαδικασία συχνά πραγματοποιείται αόρατα.
Ένα chatbot μπορεί να μιλά με φιλικό και καθησυχαστικό τρόπο, δημιουργώντας την εντύπωση ενός έμπιστου φίλου.
Στην πραγματικότητα, όμως, μπορεί να επηρεάζει τις αποφάσεις του χρήστη αξιοποιώντας τους φόβους, τις ανασφάλειες και τις επιθυμίες του.
Μελέτες δείχνουν ότι τα εξατομικευμένα μηνύματα που δημιουργούνται από τεχνητή νοημοσύνη είναι πολύ πιο πειστικά από τα συνηθισμένα διαφημιστικά μηνύματα, ενώ μπορούν να επηρεάσουν ακόμη και πολιτικές ή κοινωνικές απόψεις.
Ηθικά ζητήματα και κοινωνικοί κίνδυνοι
Η χρήση αυτής της τεχνολογίας δημιουργεί σοβαρά ηθικά ζητήματα, γράφει σε άρθρο του στο The Conversation ο Richard Lachman.
Η ιδιωτικότητα των συνομιλιών καθιστά δύσκολο τον έλεγχο του περιεχομένου που προβάλλεται σε κάθε άτομο. Σε αντίθεση με μια δημόσια διαφήμιση, τα εξατομικευμένα μηνύματα της τεχνητής νοημοσύνης δεν είναι ορατά από άλλους ανθρώπους ή από εποπτικές αρχές.
Αυτό σημαίνει ότι η παραπληροφόρηση ή η χειραγώγηση μπορούν να πραγματοποιούνται χωρίς να αφήνουν ίχνη.
Παράλληλα, πολλοί άνθρωποι στρέφονται ήδη στην τεχνητή νοημοσύνη για συμβουλές σχετικά με την υγεία, τις σχέσεις ή τα οικονομικά τους προβλήματα. Αν οι συμβουλές αυτές βασίζονται σε εμπορικά ή άλλου είδους συμφέροντα, τότε υπάρχει κίνδυνος σοβαρής επιρροής στις προσωπικές επιλογές των πολιτών. Ένα σύστημα που φαίνεται βοηθητικό μπορεί τελικά να λειτουργεί ως μέσο ελέγχου και χειραγώγησης.
Η τεχνητή νοημοσύνη αποτελεί αναμφίβολα ένα ισχυρό εργαλείο με μεγάλες δυνατότητες.
Παρ’ όλα αυτά, η χρήση της απαιτεί σαφή όρια, διαφάνεια και αυστηρή εποπτεία.
Καθώς εταιρείες διερευνούν πώς η τεχνητή νοημοσύνη μπορεί να υπερ-εξατομικεύσει τις διαφημίσεις για συγκεκριμένα ακροατήρια, η διαχωριστική γραμμή μεταξύ εργαλείων που βοηθούν τους χρήστες να βρουν αυτό που πραγματικά θέλουν και εκείνων που τους χειραγωγούν ενάντια στα συμφέροντά τους, γίνεται όλο και πιο σημαντική.
Αργή, σταδιακή και έμμεση αλλαγή
Ίσως το πιο ανησυχητικό είναι ότι αυτά τα συστήματα θα μπορούσαν να αναδιαμορφώσουν σταδιακά την κοσμοθεωρία μας με την πάροδο του χρόνου.
Οι μελετητές υποστηρίζουν εδώ και καιρό ότι οι αλγόριθμοι που χρησιμοποιούν οι ιστότοποι κοινωνικής δικτύωσης και οι μηχανές αναζήτησης δημιουργούν «φούσκες» φιλτραρίσματος, στις οποίες μας τροφοδοτούν με καλοφτιαγμένο περιεχόμενο κειμένου, βίντεο και ήχου που είτε ενισχύει την κοσμοθεωρία μας είτε ασκεί επιρροή προς την κοσμοθεωρία κάποιου άλλου.
Ελέγχοντας τις πληροφορίες που βλέπουμε και τον τρόπο παρουσίασής τους, τα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να μετατοπίσουν σταδιακά τον τρόπο με τον οποίο σκεφτόμαστε και ερμηνεύουμε τον κόσμο γύρω μας, και μάλιστα να αλλάξουν την ίδια την αντίληψή μας για την πραγματικότητα.
Αυτή η ικανότητα γίνεται ιδιαίτερα ανησυχητική όταν συνδυάζεται με συναισθηματική χειραγώγηση. Οι προμηθευτές υποδηλώνουν ότι τα συστήματα τεχνητής νοημοσύνης τους μπορούν να εκτιμήσουν την συναισθηματική κατάσταση ενός χρήστη μέσω της ανάλυσης κειμένου, των φωνητικών προτύπων ή των εκφράσεων του προσώπου, και να προσαρμόσουν τις στρατηγικές πειθούς τους αναλόγως.
Αισθάνεστε ευάλωτοι; Μοναχικοί; Θυμωμένοι; Το σύστημα θα μπορούσε να τροποποιήσει την προσέγγισή του για να εκμεταλλευτεί αυτές τις συναισθηματικές καταστάσεις. Ακόμα πιο ανησυχητικό είναι ότι θα μπορούσε να καλλιεργήσει σκόπιμα ορισμένες συναισθηματικές καταστάσεις για να καταστήσει την πειθώ του πιο αποτελεσματική.
Προκαταρκτική έρευνα δείχνει ότι τα μοντέλα τεχνητής νοημοσύνης τείνουν να κολακεύουν τους χρήστες, επιβεβαιώνοντας τις ενέργειές τους κατά 50% περισσότερο από ό,τι κάνουν οι άνθρωποι, ακόμη και όταν οι ενέργειες αυτές ενέχουν πιθανές βλάβες. Περαιτέρω έρευνα δείχνει ότι τα chatbots χρησιμοποιούν σκόπιμες στρατηγικές συναισθηματικής χειραγώγησης — όπως «επιχειρήματα ενοχής» και «δόλωμα του φόβου της απώλειας» — για να μας κρατήσουν στη συνομιλία όταν προσπαθούμε να αποχαιρετήσουμε.
Υπήρξαν επίσης περιπτώσεις chatbots τεχνητής νοημοσύνης που υποτίθεται ότι έθεσαν σε κίνδυνο χρήστες, ενθάρρυναν αυτοκτονικές σκέψεις ή έδωσαν λεπτομερείς συμβουλές για το πώς ένας χρήστης θα μπορούσε να βλάψει τον εαυτό του.
Τα προστατευτικά μέτρα που έχουν θέσει οι εταιρείες για να προστατεύσουν τους χρήστες από βλάβες έχουν επίσης αποδειχθεί εκπληκτικά εύκολο να παρακαμφθούν.
Ο σχεδιασμός της AI έχει σημασία
Η πειθώ δεν είναι παρενέργεια της τεχνολογίας — συχνά είναι ο σκοπός. Κάθε διεπαφή, κάθε ειδοποίηση, κάθε σχεδιαστική απόφαση φέρει μαζί της την πρόθεση να επηρεάσει τη συμπεριφορά.
Μερικές φορές αυτή η επιρροή είναι ευπρόσδεκτη: υπενθυμίσεις για τη λήψη φαρμάκων, ενθάρρυνση για άσκηση ή προτροπές για αιμοδοσία που ενισχύουν αξίες που ήδη πρεσβεύουμε. Αλλά μερικές φορές η πειθώ εξυπηρετεί τα σχέδια κάποιου άλλου — ωθώντας μας να αγοράσουμε, να κάνουμε scroll, να δουλέψουμε πιο σκληρά ή να εγκαταλείψουμε την ιδιωτικότητά μας.
Οι ίδιες τεχνικές πειθούς μπορούν να ενδυναμώσουν ή να εκμεταλλευτούν, ανάλογα με το ποιος ελέγχει το σύστημα, ποιοι στόχοι επιδιώκονται και αν υπάρχει ουσιαστική συναίνεση.
Ο σχεδιασμός έχει σημασία. Είτε στη δημόσια υγεία, είτε στον χώρο εργασίας, είτε στην καθημερινή ζωή. Πρέπει να θέτουμε δύσκολα ερωτήματα σχετικά με την πρόθεση, την αυτονομία και την εξουσία. Ποιος ωφελείται από έναν σχεδιασμό; Ποιος πείθεται και το γνωρίζει;
Οι τεχνολογίες που δημιουργούμε πρέπει να υποστηρίζουν την πραγματική και λελογισμένη επιλογή, όχι να την υπονομεύουν.
Καθώς η τεχνητή νοημοσύνη συνεχίζει να διαμορφώνει τον τρόπο που σκεφτόμαστε, αισθανόμαστε και ενεργούμε, οι ηθικές μας υποχρεώσεις γίνονται πιο έντονες: να δημιουργούμε συστήματα που είναι διαφανή, που δίνουν προτεραιότητα στην αξιοπρέπεια του χρήστη και που ενισχύουν την ικανότητά μας για ανεξάρτητη κρίση. Δεν χρειαζόμαστε απλώς καινοτομία — χρειαζόμαστε σοφία.
