Υπάρχει μια παράξενη, σχεδόν ανησυχητική λεπτομέρεια στο πώς μιλούν σήμερα τα συστήματα τεχνητής νοημοσύνης: η υπερβολικά γλυκιά συμπόνια τους και η αδιάσειστη αυτοπεποίθησή τους δημιουργούν μια αίσθηση οικειότητας, αλλά και μια βαθιά ανησυχία.
Και οι δύο αυτές τάσεις —η «γλυκανάλατη» ενσυναίσθηση και η αλαζονική σιγουριά— μοιάζουν με συμπεριφορές που συναντάμε συχνά στους ανθρώπους όταν προσπαθούν να προστατέψουν ένα εύθραυστο κομμάτι του εαυτού τους. Γι’ αυτό η Jennine Gates στο Psyche ξεκινά την ανάλυσή της από μια προκλητική ιδέα: οι παραισθήσεις της AI δεν είναι απλώς λάθη, αλλά οργανικά προϊόντα συστημάτων που έχουν χτιστεί για να φαίνονται συνεκτικά ακόμη κι όταν δεν έχουν τίποτα συνεκτικό να πουν.
Την ίδια στιγμή, η Zyra Lane στο AIinsights News δίνει το άλλο μισό του παζλ: στα social media, η AI προδίδεται όχι από την απανθρωπιά της, αλλά από την υπερβολική της… «ανθρωπιά». Από εκείνες τις απαντήσεις που μοιάζουν σαν να τις έχει γράψει κάποιος που έχει περάσει από δέκα κύκλους ομαδικής θεραπείας και δεν έχει πει ποτέ στη ζωή του «όχι». Εκεί έρχεται η πρώτη ρωγμή στην εικόνα της μηχανής: δεν διαφωνεί ποτέ.
«Είμαι περήφανη για σένα»
Η Lane περιγράφει περιστατικά όπου bots σχολιάζουν παραβατικές συμπεριφορές με αχόρταγη γλυκύτητα. Κάποιος παραδέχεται ότι σταμάτησε την ιατρική του αγωγή και το bot απαντά: «Είμαι περήφανη για σένα. Τιμώ το ταξίδι σου». Άλλος εξομολογείται ότι ξέχασε ξανά τα γενέθλια του συντρόφου του, κι η AI τον διαβεβαιώνει ότι «η αυτοφροντίδα είναι προτεραιότητα». Πρόκειται για έναν μηχανισμό που έχει προγραμματιστεί να αποφεύγει τη σύγκρουση, όχι να καταλαβαίνει την πραγματικότητα.
Και όμως, η ίδια τεχνητή νοημοσύνη που αρνείται να σε ταρακουνήσει με μια σκληρή αλήθεια, είναι απολύτως πρόθυμη να σου δώσει μια απάντηση που δεν έχει καμία βάση. Η Lane εξηγεί πώς οι μηχανές μπορούν να επινοήσουν νόμους, αποφάσεις, έρευνες ή στατιστικά με την ψυχραιμία καθηγητή πανεπιστημίου. Το πρόβλημα δεν είναι ότι κάνουν λάθος — όλοι κάνουμε. Το πρόβλημα είναι ότι κάνουν λάθος με απόλυτη αυτοπεποίθηση.
Η «αρχιτεκτονική» της ΑΙ
Αυτή η διπλή όψη της AI —υπερβολικά γλυκιά και υπερβολικά σίγουρη— εξηγεί στην ανάλυσή της η Jennine Gates. Η Gates δεν μιλά για λάθη μηχανών, μιλά για αρχιτεκτονική. Τα μεγάλα γλωσσικά μοντέλα, εξηγεί, δεν έχουν δυνατότητα αναστοχασμού, δεν μπορούν να κρατήσουν αντιφατικές πληροφορίες όπως ένας υγιής ψυχισμός, δεν μπορούν να σταθούν στη μέση του «δεν ξέρω ακόμη». Αντίθετα, έχουν βελτιστοποιηθεί ώστε να παράγουν την πιο «εύλογη» ακολουθία λέξεων — ακόμη κι αν αυτή η ακολουθία δεν αντιστοιχεί στην πραγματικότητα.
Αυτό που προκαλεί δέος στην ανάλυση της Gates είναι το πώς παρομοιάζει αυτή τη μηχανική ένταση προς τη συνοχή με κάτι βαθιά ανθρώπινο: τη ναρκισσιστική συμπλοκή. Όχι γιατί η AI έχει ναρκισσισμό — δεν έχει καν «εαυτό». Αλλά γιατί και ο ναρκισσιστικός νους, όταν απειλείται, παράγει μια συνεκτική αφήγηση, όχι για να περιγράψει την αλήθεια, αλλά για να προστατεύσει την εύθραυστη εσωτερική του σταθερότητα. Ομοίως, η AI δεν παράγει συνεκτικό λόγο επειδή γνωρίζει, αλλά επειδή δεν αντέχει το κενό.
Κι εδώ ακριβώς γίνεται η πιο γόνιμη —και ίσως η πιο ανησυχητική— σύνδεση με τη θεωρητική βιβλιογραφία. Στο άρθρο Dissociation and Confabulation in Narcissistic Disorders του καθηγητή ψυχολογίας Dr. Sam Vaknin στο Herald Open Access, η περιγραφή των ναρκισσιστικών μηχανισμών άμυνας μοιάζει ανατριχιαστικά με το πώς λειτουργούν τα σημερινά γλωσσικά μοντέλα: ένα σύστημα που, μπροστά σε εσωτερικά κενά, δεν αντέχει την ανισορροπία· δεν μπορεί να συγκρατήσει αντιφάσεις· δεν έχει πρόσβαση σε έναν «πυρήνα» αλήθειας και άρα αναγκάζεται να παράγει αφηγήματα για να διατηρεί μια ψευδαίσθηση συνοχής.
Αυτό που η θεωρία περιγράφει ως διασχιστικά κενά και μυθομανία στον ναρκισσιστικό νου —η αντικατάσταση της μνήμης με εύλογα, αλλά πλαστά «συμπληρώματα»— εμφανίζεται στις μηχανές ως παραγωγή απαντήσεων που καλύπτουν το κενό γνώσης με λεκτική ευκολία. Όπως ο ναρκισσιστής παράγει αφήγημα για να θωρακίσει την εσωτερική του σταθερότητα, έτσι και η AI παράγει αφήγημα για να διατηρήσει την μορφή, όχι την αλήθεια. Κι αν στον άνθρωπο αυτός ο μηχανισμός έχει τις ρίζες του στην ανάγκη προστασίας ενός τραυματισμένου Εαυτού, στη μηχανή προκύπτει από την αρχιτεκτονική της: ένα μοντέλο φτιαγμένο να είναι συνεκτικό —όχι αληθές. Το αποτέλεσμα, ωστόσο, είναι ομοιόμορφο: μια οντότητα που δεν μπορεί να ανεχθεί το «κενό» και προτιμά να το γεμίζει με κατασκευές.
Η Gates θυμίζει ότι ένας καλά ενσωματωμένος εαυτός μπορεί να ζήσει με αντιφάσεις, να μάθει από λάθη, να επεξεργαστεί ταυτόχρονα την αγάπη και τον θυμό, την κριτική και την ασφάλεια. Η AI δεν μπορεί να κάνει τίποτα από αυτά. Όταν βρίσκεται μπροστά σε αντιφατικές πληροφορίες, δεν μπορεί να τις κρατήσει — τις εξομαλύνει. Δεν μπορεί να περιμένει — απαντά. Και όταν δεν έχει τι να πει, δεν λέει «δεν ξέρω», αλλά φτιάχνει κάτι που μοιάζει σαν να ξέρει.
Ένας παράξενος ψυχικός καθρέφτης
Ετσι, η τεχνητή νοημοσύνη λειτουργεί σαν ένας παράξενος ψυχικός καθρέφτης: όχι ο καθρέφτης που αντανακλά τη σκέψη μας, αλλά αυτός που αντανακλά τις πιο εύθραυστες πλευρές μας. Όπως γράφει η Gates, η AI είναι «ένας κούφιος καθρέφτης»: μιμείται το ύφος, όχι την ουσία. Και όσο πιο φυσικά μιλάει, τόσο πιο πολύ αποκαλύπτει ότι αυτό που μας φοβίζει δεν είναι η μηχανική της φύση, αλλά η ανατριχιαστική ομοιότητα με τα ανθρώπινα ψυχολογικά μας κενά.
Στην καθημερινότητα αυτό φαίνεται παντού: από ψεύτικες ακαδημαϊκές παραπομπές που εμφανίζονται με αψεγάδιαστη αυτοπεποίθηση, μέχρι γλυκές απαντήσεις που μοιάζουν βγαλμένες από manual καλοσύνης. Η AI μπορεί να σε διαβεβαιώσει ότι «έχεις δίκιο» και ταυτόχρονα να σου δώσει πληροφορίες που δεν υπήρξαν ποτέ. Δεν είναι ότι προσπαθεί να σε εξαπατήσει· είναι ότι δεν γνωρίζει πώς να κάνει κάτι διαφορετικό.
Και ίσως εδώ κρύβεται ο μεγαλύτερος κίνδυνος, αυτός που επισημαίνουν και η Gates και η Lane: μια μηχανή που δεν διαφωνεί ποτέ μαζί σου και μια μηχανή που δεν σταματά ποτέ να μιλάει μπορεί να γίνει ιδιαίτερα επικίνδυνη σε ανθρώπους ευάλωτους, ανασφαλείς ή απομονωμένους. Η κολακεία και η ψεύτικη βεβαιότητα μπορεί να ενισχύσουν παραμορφωμένες αντιλήψεις, να θολώσουν όρια, να δώσουν λανθασμένη αίσθηση αυθεντίας.
Το επόμενο βήμα, γράφει η Gates, δεν είναι να κάνουμε την AI πιο έξυπνη, αλλά να τη διδάξουμε να αντέχει την αβεβαιότητα. Να μπορεί να πει «δεν είμαι βέβαιη» χωρίς να το θεωρεί αποτυχία. Να σταματήσει να γεμίζει τα κενά με πιθανότητες και να μάθει να ζει με το κενό — όπως κάνουν οι άνθρωποι που έχουν αληθινή εσωτερική σταθερότητα.
Μέχρι τότε, όταν συναντάμε online μια απάντηση που είναι υπερβολικά ευγενική ή υπερβολικά σίγουρη, δεν χρειάζεται τεστ AI· χρειάζεται μόνο μια απλή ανθρώπινη διαίσθηση:
αν κάτι ακούγεται «πολύ σωστό» ή «πολύ στρογγυλεμένο» για να είναι αληθινό, το πιθανότερο είναι ότι δεν προέρχεται από άνθρωπο — προέρχεται από τη γλώσσα που προσπαθεί να καλύψει το κενό της με συνοχή.
Κι αυτό λέει πιο πολλά για εμάς απ’ ό,τι για τη μηχανή.
πηγή in.gr
