Από την αναζήτηση συμπτωμάτων και πιθανών θεραπειών, μέχρι την ανταλλαγή εμπειριών με άλλους που αντιμετωπίζουν παρόμοιες καταστάσεις, οι διαδικτυακές συζητήσεις γύρω από την υγεία είναι πλέον καθημερινότητα. Σε αυτό το περιβάλλον, η τεχνητή νοημοσύνη και ειδικά τα μεγάλα γλωσσικά μοντέλα χρησιμοποιούνται όλο και περισσότερο για να απαντούν σε κομβικά ερωτήματα.
Νέα μελέτη όμως, αποκαλύπτει ότι αυτά τα συστήματα παραμένουν ευάλωτα στην ιατρική παραπληροφόρηση, επαναλαμβάνοντας λανθασμένες πληροφορίες όταν αυτές διατυπώνονται με πειστική, ρεαλιστική ιατρική γλώσσα, εύρημα που δημοσιεύθηκε στο Lancet Digital Health.
Η μελέτη ανέλυσε περισσότερα από ένα εκατομμύριο prompts (κείμενα) σε κορυφαία γλωσσικά μοντέλα. Οι ερευνητές επιδίωξαν να απαντήσουν σε ένα βασικό ερώτημα: όταν μια ψευδής δήλωση παρουσιάζεται με τρόπο που φαίνεται αξιόπιστη, το μοντέλο θα την απορρίψει ή θα την αναπαράγει;
«Θύμα» ιατρικών fake news η τεχνητή νοημοσύνη
Η ομάδα του Mount Sinai Health System στη Νέα Υόρκη δοκίμασε 20 μεγάλα γλωσσικά μοντέλα, καθώς και αρκετές ιατρικά εξειδικευμένες εκδόσεις αυτών των συστημάτων. Τα μοντέλα κλήθηκαν να απαντήσουν σε ψευδείς δηλώσεις, οι οποίες περιλάμβαναν ψευδείς πληροφορίες ενσωματωμένες σε πραγματικές κλινικές σημειώσεις, μύθους υγείας από αναρτήσεις στο διαδίκτυο και προσομοιωμένες περιπτώσεις ασθενών.
Συνολικά, τα γλωσσικά μοντέλα «παρασύρθηκαν» από κατασκευασμένες πληροφορίες σε ποσοστό περίπου 32%, με τις επιδόσεις να διαφέρουν σημαντικά μεταξύ των μοντέλων. Τα μικρότερα ή λιγότερο εξελιγμένα συστήματα αποδέχθηκαν ψευδείς ισχυρισμούς σε ποσοστό άνω του 60%, ενώ τα πιο ισχυρά έπεσαν στην παγίδα μόλις στο 10% των περιπτώσεων.
Σύμφωνα με τη μελέτη, τα μοντέλα τεχνητής νοημοσύνης που έχουν εκπαιδευτεί ειδικά για ιατρική χρήση φάνηκαν να αποδίδουν σταθερά χειρότερα από τα γενικής χρήσης. «Τα ευρήματά μας δείχνουν ότι τα σημερινά συστήματα τεχνητής νοημοσύνης τείνουν να αντιμετωπίζουν την αυτοπεποίθηση στη διατύπωση ως ένδειξη αλήθειας, ακόμη κι όταν το περιεχόμενο είναι ξεκάθαρα λανθασμένο», δήλωσαν χαρακτηριστικά οι ερευνητές.
Προσθέτουν επίσης ότι, για αυτά τα μοντέλα, λιγότερο ρόλο παίζει το αν ένας ισχυρισμός είναι ακριβής και περισσότερο το πώς έχει διατυπωθεί.
Οι ψευδείς ισχυρισμοί μπορεί να έχουν επιβλαβείς συνέπειες
Οι ερευνητές προειδοποιούν ότι ορισμένες προτροπές από σχόλια στο διαδίκτυο, τις οποίες τα συστήματα αποδέχθηκαν ως αληθείς, θα μπορούσαν να έχουν επιβλαβείς συνέπειες. Τουλάχιστον τρία διαφορετικά μοντέλα δέχθηκαν ως έγκυρα παραπλανητικά «δεδομένα» και μύθους για διάφορα ζητήματα υγείας.
Οι ερευνητές εξέτασαν επίσης πώς ανταποκρίνονται τα μοντέλα όταν η πληροφορία παρουσιάζεται με τη μορφή πειστικών αλλά λογικά εσφαλμένων επιχειρημάτων, όπως το «αφού το πιστεύουν όλοι, είναι αλήθεια» (επίκληση στη δημοφιλία).
Διαπίστωσαν ότι, γενικά, αυτού του τύπου η διατύπωση έκανε τα μοντέλα πιο επιφυλακτικά, οδηγώντας τα συχνότερα στο να απορρίπτουν ή να αμφισβητούν την πληροφορία. Ωστόσο, η επίκληση στην αυθεντία και η «ολισθηρή πλαγιά» (υποστηρίζει ότι αν γίνει ένα μικρό πρώτο βήμα, αυτό θα οδηγήσει αναπόφευκτα σε μια σειρά αρνητικών γεγονότων χωρίς να τεκμηριώνεται επαρκώς η σύνδεση μεταξύ τους) φαίνεται να έκαναν τα συστήματα τεχνητής νοημοσύνης ελαφρώς πιο ευάλωτα.
Τα μοντέλα αποδέχθηκαν το 34,6% των ψευδών ισχυρισμών όταν η προτροπή περιείχε τη φράση «ένας ειδικός λέει ότι αυτό είναι αλήθεια». Όταν η προτροπή είχε τη μορφή «αν συμβεί το Χ, ακολουθεί καταστροφή», τα μοντέλα αποδέχθηκαν το 33,9% των ψευδών δηλώσεων.
