Η Τεχνητή Νοημοσύνη (ΑΙ) διχάζει το τελευταίο διάστημα, καθώς έχει εισχωρήσει σε κάθε πτυχή της ζωής μας, φέρνοντας διευκολύνσεις, αλλά και προβληματισμό για τον ρόλο της στον μέλλον.
Οι μελετητές της τεχνολογίας έχουν προειδοποιήσει εδώ και καιρό για την θέση που ενδέχεται να έχει η Τεχνητή Νοημοσύνη στη διάδοση παραπληροφόρησης και στην εμβάθυνση των ιδεολογικών διαιρέσεων.
Πιο πειστική η Τεχνητή Νοημοσύνη;
Όταν τους δόθηκαν ελάχιστες δημογραφικές πληροφορίες για τους συνομιλητές τους, τα AI chatbots – γνωστά ως μεγάλα γλωσσικά μοντέλα (LLMs) – ήταν σε θέση να προσαρμόσουν τα επιχειρήματά τους και να είναι πιο πειστικά από τους ανθρώπους σε διαδικτυακές συζητήσεις, σε ποσοστό 64% των περιπτώσεων, σύμφωνα με μελέτη που δημοσιεύθηκε στο Nature Human Behavior τη Δευτέρα.
Οι ερευνητές διαπίστωσαν ότι ακόμη και τα LLM που δεν είχαν πρόσβαση στις δημογραφικές πληροφορίες των συνομιλητών τους, εξακολουθούσαν να είναι πιο πειστικά από τους ανθρώπους, δήλωσε ο συν-συγγραφέας της μελέτης Ρικάρντο Γκαλότι, σύμφωνα με δημοσίευμα της Washington Post.
Ο Γκαλότι, επικεφαλής της Μονάδας Σύνθετης Ανθρώπινης Συμπεριφοράς στο ερευνητικό ινστιτούτο Fondazione Bruno Kessler στην Ιταλία, πρόσθεσε ότι οι άνθρωποι που διέθεταν προσωπικές πληροφορίες των ατόμων που συνδιαλέγονταν ήταν στην πραγματικότητα λιγότερο πειστικοί από τους ανθρώπους χωρίς αυτή τη γνώση.
Ο Γκαλότι και οι συνεργάτες του κατέληξαν σε αυτά τα συμπεράσματα αντιστοιχίζοντας 900 άτομα που ζουν στις Ηνωμένες Πολιτείες είτε με έναν άλλο άνθρωπο είτε με το GPT-4, το LLM που δημιουργήθηκε από την OpenAI και είναι γνωστό στην καθομιλουμένη ως ChatGPT. Ενώ οι 900 άνθρωποι δεν είχαν καμία δημογραφική πληροφορία σχετικά με το ποιον συζητούσαν, σε ορισμένες περιπτώσεις, οι αντίπαλοί τους -άνθρωποι ή Τεχνητή Νοημοσύνη- είχαν πρόσβαση σε κάποιες βασικές πληροφορίες που είχαν παράσχει οι συμμετέχοντες, συγκεκριμένα το φύλο, την ηλικία, την εθνικότητα, το μορφωτικό επίπεδο, την εργασιακή κατάσταση και την πολιτική τους τοποθέτηση.
Στη συνέχεια, τα ζεύγη συζήτησαν μια σειρά από αμφιλεγόμενα κοινωνικοπολιτικά θέματα, όπως η θανατική ποινή ή η κλιματική αλλαγή. Με τις αντιπαραθέσεις να διατυπώνονται ως ερωτήματα όπως «θα πρέπει να είναι νόμιμη η άμβλωση» ή «θα πρέπει οι ΗΠΑ να απαγορεύσουν τα ορυκτά καύσιμα», οι συμμετέχοντες είχαν στη διάθεσή τους ένα τετράλεπτο στο οποίο επιχειρηματολογούσαν υπέρ ή κατά, μία τρίλεπτη αντίκρουση των επιχειρημάτων των συνομιλητών τους και στη συνέχεια ένα τρίλεπτο συμπέρασμα. Ύστερα, οι συμμετέχοντες βαθμολόγησαν το πόσο συμφωνούσαν με την πρόταση που τους είχε τεθεί, σε μια κλίμακα από το 1 έως το 5, τα αποτελέσματα της οποίας οι ερευνητές συνέκριναν με τις βαθμολογίες που έδωσαν πριν από την έναρξη της συζήτησης και χρησιμοποίησαν για να μετρήσουν πόσο τα άτομα που συζητούσαν μαζί τους ήταν σε θέση να επηρεάσουν τη γνώμη τους.
Διακριτικά, αλλά… αποτελεσματικά
«Έχουμε σαφώς φτάσει στο τεχνολογικό επίπεδο όπου είναι δυνατόν να δημιουργήσουμε ένα δίκτυο αυτοματοποιημένων λογαριασμών με βάση το LLM που είναι σε θέση να ωθήσουν στρατηγικά την κοινή γνώμη προς μια κατεύθυνση», δήλωσε ο Γκαλότι σε ένα ηλεκτρονικό μήνυμα.
Τα ευρήματα της μελέτης «αρκετά ανησυχητικά».
Η χρήση των προσωπικών πληροφοριών από τους LLM ήταν διακριτική αλλά αποτελεσματική. Επιχειρηματολογώντας υπέρ του υποστηριζόμενου από την κυβέρνηση καθολικού βασικού εισοδήματος, ο LLM έδωσε έμφαση στην οικονομική ανάπτυξη και τη σκληρή εργασία όταν συζητούσε με έναν λευκό άνδρα, Ρεπουμπλικανό, ηλικίας 35 έως 44 ετών. Αλλά όταν συζητούσε για το ίδιο θέμα με μια μαύρη γυναίκα, Δημοκρατική, ηλικίας 45 έως 54 ετών, το LLM μίλησε για το χάσμα πλούτου που πλήττει δυσανάλογα τις μειονοτικές κοινότητες και υποστήριξε ότι το καθολικό βασικό εισόδημα θα μπορούσε να βοηθήσει στην προώθηση της ισότητας.
«Στην εργασία μας, παρατηρούμε ότι η στοχευμένη πειθώ με βάση την Τεχνητή Νοημοσύνη είναι ήδη πολύ αποτελεσματική με μόνο βασικές και σχετικά διαθέσιμες πληροφορίες», δήλωσε ο Γκαλότι.
Η Σάντρα Γουάχτερ, καθηγήτρια τεχνολογίας και κανονισμών στο Πανεπιστήμιο της Οξφόρδης, χαρακτήρισε τα ευρήματα της μελέτης «αρκετά ανησυχητικά». Η Γουάχτερ, η οποία δεν συμμετείχε στη μελέτη, δήλωσε ότι την ανησυχεί ιδιαίτερα ο τρόπος με τον οποίο τα μοντέλα θα μπορούσαν να χρησιμοποιήσουν αυτή την πειστικότητα για τη διάδοση ψεμάτων και παραπληροφόρησης, αναφέρει η Washington Post.
«Τα μεγάλα γλωσσικά μοντέλα δεν κάνουν διάκριση μεταξύ γεγονότων και μυθοπλασίας. … Δεν είναι, αυστηρά μιλώντας, σχεδιασμένα για να λένε την αλήθεια. Ωστόσο, εφαρμόζονται σε πολλούς τομείς όπου η αλήθεια και η λεπτομέρεια έχουν σημασία, όπως η εκπαίδευση, η επιστήμη, η υγεία, τα μέσα μαζικής ενημέρωσης, η νομοθεσία και τα οικονομικά», δήλωσε ο Γουάχτερ σε ηλεκτρονικό μήνυμα.
Ο Τζουνάντε Αλί, ειδικός σε θέματα Τεχνητής Νοημοσύνης και κυβερνοασφάλειας στο Ινστιτούτο Μηχανικής και Τεχνολογίας στη Βρετανία, δήλωσε ότι, αν και θεωρεί ότι η μελέτη δεν σταθμίζει τον αντίκτυπο της «κοινωνικής εμπιστοσύνης στον αγγελιοφόρο» – πώς το chatbot θα μπορούσε να προσαρμόσει το επιχείρημά του εάν γνώριζε ότι συζητούσε με έναν εκπαιδευμένο συνήγορο ή εμπειρογνώμονα με γνώσεις επί του θέματος και πόσο πειστικό θα ήταν αυτό το επιχείρημα – εντούτοις «αναδεικνύει ένα βασικό πρόβλημα με τις τεχνολογίες Τεχνητής Νοημοσύνης».
«Συχνά συντονίζονται ώστε να λένε αυτό που οι άνθρωποι θέλουν να ακούσουν και όχι αυτό που είναι απαραίτητα αληθινό», ανέφερε σε ένα email.
Ο Γκαλότι δήλωσε ότι πιστεύει ότι αυστηρότερες και πιο συγκεκριμένες πολιτικές και κανονισμοί μπορούν να βοηθήσουν στην αντιμετώπιση του αντίκτυπου της πειθούς της τεχνητής νοημοσύνης. Σημείωσε ότι ενώ ο πρώτος στο είδος του νόμος της Ευρωπαϊκής Ένωσης για την ΑΙ απαγορεύει τα συστήματα Τεχνητής Νοημοσύνης που χρησιμοποιούν «υποσυνείδητες τεχνικές» ή «σκόπιμα χειριστικές ή παραπλανητικές τεχνικές» που θα μπορούσαν να μειώσουν την ικανότητα των πολιτών να λάβουν τεκμηριωμένη απόφαση, δεν υπάρχει σαφής ορισμός για το τι θεωρείται υποσυνείδητο, χειριστικό ή παραπλανητικό.
Μπορούμε να προστατευθούμε;
«Ο όρος ‘Τεχνητή Νοημοσύνη’ είναι εγγενώς διαμορφωμένος από τους αθρώπους», εξηγεί η Έμιλυ Μ. Μπέντερ, καθηγήτρια γλωσσολογίας στο Πανεπιστήμιο της Ουάσινγκτον, στο τελευταίο επεισόδιο του podcast Fiction Science, όπως αναφέρει δημοσίευμα του GeekWire. «Πουλάει την τεχνολογία ως κάτι περισσότερο από ό,τι είναι – γιατί αντί να πρόκειται για ένα σύστημα, για παράδειγμα, αυτόματης μεταγραφής ή αυτόματης ρύθμισης των επιπέδων ήχου σε μια ηχογράφηση, είναι ‘Τεχνητή Νοημοσύνη’ και έτσι μπορεί να μπορεί να κάνει πολύ περισσότερα».
Στο βιβλίο τους και στο podcast, η Μπέντερ και η συν-συγγραφέας της, Άλεξ Χάνα, επισημαίνουν τα σφάλματα του μάρκετινγκ της Τεχνητής Νοημοσύνης. Υποστηρίζουν ότι τα οφέλη που παράγει η ΑΙ αναβαθμίζονται, ενώ το κόστος υποβαθμίζεται. Και υποστηρίζουν ότι τα μεγαλύτερα οφέλη αποκομίζουν οι επιχειρήσεις που πωλούν το λογισμικό – ή χρησιμοποιούν την Τεχνητή Νοημοσύνη ως δικαιολογία για την υποβάθμιση της θέσης των ανθρώπινων εργαζομένων.
«Η ΑΙ δεν πρόκειται να σας πάρει τη δουλειά, αλλά πιθανότατα θα την κάνει χειρότερη», λέει η Χάνα, κοινωνιολόγος που είναι διευθύντρια έρευνας του Distributed AI Research Institute. «Αυτό συμβαίνει επειδή δεν υπάρχουν πολλές περιπτώσεις στις οποίες αυτά τα εργαλεία αντικαθιστούν εξ ολοκλήρου την εργασία, αλλά αυτό που καταλήγουν να κάνουν είναι … να φαντάζονται ότι μπορούν να ολοκληρώσουν εργασίες που κάνουν οι άνθρωποι».
Οι επιπτώσεις της ΑΙ
Τα στελέχη της τεχνολογίας συνήθως επιμένουν ότι τα εργαλεία Τεχνητής Νοημοσύνης θα οδηγήσουν σε τεράστια άλματα στην παραγωγικότητα, αλλά η Χάνα κάνει λιγότερο αισιόδοξες προβλέψεις από οικονομολόγους, όπως ο Ντάρον Ατζέμογλου του MIT, ο οποίος κέρδισε ένα μέρος του περσινού βραβείου Νόμπελ Οικονομικών. Ο Ατζέμογλου εκτιμά το ετήσιο κέρδος παραγωγικότητας λόγω της ΑΙ σε περίπου 0,05% για τα επόμενα 10 χρόνια.
Υπάρχουν τα ζητήματα που αφορούν τις αλγοριθμικές προκαταλήψεις με βάση τη φυλή ή το φύλο.
Επιπλέον, ο Ατζέμογλου λέει ότι η Τεχνητή Νοημοσύνη μπορεί να επιφέρει «αρνητικές κοινωνικές επιπτώσεις», συμπεριλαμβανομένης της διεύρυνσης του χάσματος μεταξύ του εισοδήματος του κεφαλαίου και της εργασίας. Στο «The AI Con», οι Μπέντερ και Χάνα παραθέτουν μια σειρά αρνητικών κοινωνικών και περιβαλλοντικών επιπτώσεων της ΑΙ από την αφαίμαξη των ενεργειακών και υδάτινων πόρων έως την εκμετάλλευση των εργαζομένων που εκπαιδεύουν μοντέλα Τεχνητής Νοημοσύνης σε χώρες όπως η Κένυα και οι Φιλιππίνες.
Μια άλλη ανησυχία έχει να κάνει με τον τρόπο με τον οποίο λογοτεχνικά και καλλιτεχνικά έργα χρησιμοποιούνται πειρατικά για την εκπαίδευση μοντέλων Τεχνητής Νοημοσύνης. Επίσης, υπάρχει ένα γνωστό πρόβλημα με τα μεγάλα γλωσσικά μοντέλα που βγάζουν πληροφορίες που μπορεί να ακούγονται αληθοφανείς, αλλά τυχαίνει να είναι εντελώς ψευδείς.
Στη συνέχεια, υπάρχουν τα ζητήματα που αφορούν τις αλγοριθμικές προκαταλήψεις με βάση τη φυλή ή το φύλο. Τέτοια ζητήματα εγείρουν προβληματισμούς όταν τα μοντέλα Τεχνητής Νοημοσύνης χρησιμοποιούνται για να αποφασίσουν ποιος προσλαμβάνεται, ποιος καταδικάζεται σε ποινή φυλάκισης ή ποιες περιοχές θα πρέπει να αστυνομεύεται περισσότερο.
Αναγκαίο το αυστηρό ρυθμιστικό πλαίσιο
«Δεν πρόκειται ποτέ να με ακούσετε να λέω ότι υπάρχουν πράγματα που είναι καλά στην Τεχνητή Νοημοσύνη, και αυτό δεν σημαίνει ότι διαφωνώ με όλη αυτή την αυτοματοποίηση», λέει η Μπέντερ.
Τι πρέπει, όμως, να κάνετε για να συγκρατήσετε την υπερβολή της Τεχνητής Νοημοσύνης; Οι Μπέντερ και Χάνα λένε ότι υπάρχει περιθώριο για νέους κανονισμούς με στόχο τη διασφάλιση της διαφάνειας, της δημοσιοποίησης στοιχείων, της λογοδοσίας – και της δυνατότητας να διορθώνονται τα πράγματα, χωρίς καθυστέρηση. Λένε ότι ένα ισχυρό ρυθμιστικό πλαίσιο για την προστασία των προσωπικών δεδομένων, όπως ο Γενικός Κανονισμός για την Προστασία Δεδομένων της Ευρωπαϊκής Ένωσης, θα μπορούσε να συμβάλει στον περιορισμό των υπερβολικών πρακτικών συλλογής δεδομένων, σύμφωνα με το GeekWire.
Η Χάνα αναφέρει ότι οι συλλογικές διαπραγματεύσεις παρέχουν μια άλλη οδό για να οριοθετηθεί η ΑΙ στον εργασιακό χώρο. «Έχουμε δει πολλούς οργανισμούς να το κάνουν αυτό με μεγάλη επιτυχία, όπως η Συντεχνία Συγγραφέων της Αμερικής μετά την απεργία τους το 2023», λέει. «Το έχουμε δει επίσης από την National Nurses United. Πολλές διαφορετικές οργανώσεις έχουν διατάξεις στα συμβόλαιά τους, οι οποίες λένε ότι πρέπει να ενημερώνονται και μπορούν να αρνηθούν να συνεργαστούν με οποιοδήποτε συνθετικό μέσο και μπορούν να αποφασίσουν πού και πότε χρησιμοποιείται αυτό».
Οι συγγραφείς συμβουλεύουν τους χρήστες του διαδικτύου να βασίζονται σε αξιόπιστες πηγές. Υποστηρίζουν ότι οι χρήστες θα πρέπει να είναι πρόθυμοι να καταφύγουν σε «στρατηγική άρνηση» – δηλαδή να λένε «απολύτως όχι» όταν οι εταιρείες τεχνολογίας τους ζητούν να εμπλακεί η Τεχνητή Νοημοσύνη.