Καθώς η τεχνητή νοημοσύνη ενσωματώνεται στη ζωή μας, οι περισσότεροι έχουν φτάσει σε σημείο να μην μπορούν να ξεχωρίσουν τις ανθρώπινες φωνές από τις ψηφιακές τους εκδοχές, όπως αποκαλύπτει νέα μελέτη
Η τεχνητή νοημοσύνη (AI) έχει γίνει κομμάτι της καθημερινότητας για πολλούς. Στην εν λόγω μελέτη, που δημοσιεύτηκε στο επιστημονικό περιοδικό PLoS One, οι ερευνητές διαπίστωσαν ότι οι περισσότεροι άνθρωποι δεν μπορούν πια να ξεχωρίσουν τις φωνές που δημιουργούνται από AI από τις ανθρώπινες φωνές από τις οποίες προήλθαν.
Η μελέτη
Στη μελέτη, οι συμμετέχοντες άκουσαν 80 διαφορετικές φωνές, οι μισές ανθρώπινες και οι μισές από AI, και τους ζητήθηκε να αξιολογήσουν τι άκουγαν ως προς την αξιοπιστία ή την κυριαρχία. Στην κατηγορία AI υπήρχαν δύο τύποι. Ήταν οι γενικές φωνές, δημιουργημένες από το μηδέν και κάποιες φωνές που είχαν δημιουργηθεί από ηχογραφήσεις ανθρώπων.
Παρά το γεγονός ότι οι περισσότεροι αναγνώρισαν τις γενικές AI φωνές ως τεχνητές, οι φωνές που είχαν δημιουργηθεί από ανθρώπινες φωνές ήταν πολύ πιο δύσκολο να ξεχωριστούν, με το 58% από αυτές, να θεωρείται πραγματική φωνή. Σε ποσοστό 62%, οι πραγματικές φωνές αναγνωρίστηκαν σωστά ως ανθρώπινες, δείχνοντας μια πολύ μικρή διαφορά στην ικανότητα των συμμετεχόντων να ξεχωρίζουν τις δύο κατηγορίες.
Το πιο σημαντικό στοιχείο της έρευνας είναι ότι οι φωνές που δημιουργούνται από AI, ειδικά οι κλωνοποιημένες φωνές, ακούγονται τόσο ανθρώπινες όσο οι πραγματικές ηχογραφήσεις, όπως αναφέρουν οι ερευνητές.
Αυτό είναι ιδιαίτερα σημαντικό, καθώς χρησιμοποιήθηκαν εργαλεία, τα οποία επιτρέπουν σε οποιονδήποτε να δημιουργήσει ρεαλιστικές φωνές χωρίς υψηλό κόστος ή τεχνικές γνώσεις.
Ανησυχίες για κακή χρήση AI φωνών
Η τεχνολογία κλωνοποίησης φωνής αναλύει και αντιγράφει βασικά χαρακτηριστικά από ηχογραφήσεις. Η ακρίβεια της κλωνοποίησης την έχει κάνει δημοφιλή σε τηλεφωνικές απάτες, όπου κακοποιοί μιμούνται τις φωνές αγαπημένων προσώπων μέσω κοινωνικών μέσων. Οι ηλικιωμένοι είναι πιο ευάλωτοι, με πάνω από τα δύο τρίτα των ατόμων άνω των 75 να δέχονται απόπειρες τηλεφωνικής απάτης, ενώ περίπου το 60% αυτών γίνεται μέσω φωνητικών κλήσεων.
Η κλωνοποίηση φωνής έχει προκαλέσει επίσης ανησυχίες στη βιομηχανία ψυχαγωγίας, καθώς αρκετοί διάσημοι έχουν δει τη φωνή τους να χρησιμοποιείται χωρίς άδεια. Επιπλέον, κάποιοι έχουν μιμηθεί πολιτικούς ή δημοσιογράφους, με σκοπό την παραπληροφόρηση και την επιρροή της κοινής γνώμης.
Όπως τονίζουν οι επιστήμονες, οι προγραμματιστές AI έχουν ηθική ευθύνη να ενσωματώσουν αυστηρότερους μηχανισμούς ασφαλείας και να συνεργάζονται με δικηγόρους για θέματα όπως η ιδιοκτησία φωνών και η συναίνεση.
AI φωνές και θετική χρήση
Όπως κάθε τεχνολογία, οι φωνές που δημιουργούνται από AI μπορούν να έχουν και θετικά αποτελέσματα, ειδικά για άτομα που δεν μπορούν να μιλήσουν ή αντιμετωπίζουν δυσκολίες στην ομιλία.
Σύμφωνα με τους μελετητές, τώρα πια οι χρήστες μπορούν να αναδημιουργήσουν την αρχική τους φωνή ή να φτιάξουν μια εντελώς νέα που αντικατοπτρίζει την ταυτότητά τους και τις προτιμήσεις τους.
Επίσης, η τεχνολογία μπορεί να βελτιώσει, μεταξύ άλλων, την πρόσβαση στην εκπαίδευση, ενώ μελέτες δείχνουν ότι η υποβοηθούμενη από AI ακουστική μάθηση ενισχύει το ενδιαφέρον και την εμπλοκή μαθητών με νευροδιαφορετικότητα, δηλαδή με διαφορετικό τρόπο επεξεργασίας των πληροφοριών, όπως π.χ. με ΔΕΠΥ.
Η δυνατότητα κλωνοποίησης της φωνής σε διαφορετικές γλώσσες ανοίγει τον δρόμο για παγκόσμια επικοινωνία και πολιτισμική ανταλλαγή, ενώ διατηρεί την προσωπική ταυτότητα της φωνής. Καθώς αυτές οι φωνές γίνονται πιο διαδεδομένες, η έρευνα θα συνεχίσει να εξετάζει πώς οι άνθρωποι αντιλαμβάνονται και αλληλεπιδρούν μαζί τους και κατά πόσο η γνώση ότι μια φωνή είναι AI αλλάζει τη συμπεριφορά τους.