Δεν είναι λίγοι οι εργαζόμενοι που έχουν χρησιμοποιήσει Τεχνητή Νοημοσύνη (ΑΙ) για να συντάξουν ένα email εργασίας, ίσως για να συνοψίσουν μια έκθεση, να ερευνήσουν ένα θέμα ή να αναλύσουν δεδομένα σε ένα λογιστικό φύλλο.
Η Τεχνητή Νοημοσύνη στην εργασία
Τα εργαλεία Τεχνητής Νοημοσύνης μεταμορφώνουν με ταχείς ρυθμούς τον κόσμο της εργασίας. Η παγκόσμια έρευνα των Nicole Gillespie και Steven Lockey που δημοσιεύθηκε στο Conversation και πραγματοποιήθηκε σε περισσότερους από 32.000 εργαζόμενους από 47 χώρες, δείχνει ότι το 58% των εργαζομένων χρησιμοποιεί σκόπιμα την Τεχνητή Νοημοσύνη στη δουλειά – με το ένα τρίτο να τη χρησιμοποιεί εβδομαδιαία ή καθημερινά.
Οι περισσότεροι εργαζόμενοι που το χρησιμοποιούν λένε ότι έχουν αποκτήσει κάποια πραγματικά οφέλη παραγωγικότητας και απόδοσης από την υιοθέτηση εργαλείων AI.
Ωστόσο, ένας ανησυχητικός αριθμός χρησιμοποιεί την Τεχνητή Νοημοσύνη με ιδιαίτερα επικίνδυνους τρόπους – όπως το ανέβασμα ευαίσθητων πληροφοριών σε δημόσια εργαλεία, το να βασίζονται σε απαντήσεις της ΑΙ χωρίς να τις ελέγχουν και το να κρύβουν τη χρήση της.
Υπάρχει επείγουσα ανάγκη για πολιτικές, κατάρτιση και διακυβέρνηση σχετικά με την υπεύθυνη χρήση της Τεχνητής Νοημοσύνης, ώστε να διασφαλιστεί ότι ενισχύει -και όχι υπονομεύει- τον τρόπο με τον οποίο γίνεται η εργασία.
Η έρευνα
Ερευνήθηκαν 32.352 εργαζόμενοι σε 47 χώρες, καλύπτοντας όλες τις παγκόσμιες γεωγραφικές περιοχές και επαγγελματικές ομάδες.
Οι περισσότεροι εργαζόμενοι αναφέρουν οφέλη για την απόδοση από την υιοθέτηση της ΑΙ στην εργασία. Αυτά περιλαμβάνουν βελτιώσεις σε:
- αποδοτικότητα (67%),
- πρόσβαση σε πληροφορίες (61%),
- καινοτομία (59%),
- ποιότητα εργασίας (58%).
Τα ευρήματα αυτά απηχούν προηγούμενες έρευνες που καταδεικνύουν ότι η Τεχνητή Νοημοσύνη μπορεί να οδηγήσει σε αύξηση της παραγωγικότητας για τους εργαζόμενους και τους οργανισμούς.
Διαπιστώθηκε ότι τα γενικής χρήσης εργαλεία δημιουργικής ΑΙ, όπως το ChatGPT, είναι μακράν τα πιο ευρέως χρησιμοποιούμενα. Περίπου το 70% των εργαζομένων βασίζονται σε δωρεάν, δημόσια εργαλεία, παρά σε λύσεις ΑΙ που παρέχονται από τον εργοδότη τους (42%).
Ωστόσο, σχεδόν οι μισοί από τους υπαλλήλους που συμμετείχαν στην έρευνα και χρησιμοποιούν Τεχνητή Νοημοσύνη λένε ότι το έχουν κάνει με τρόπους που θα μπορούσαν να θεωρηθούν ακατάλληλοι (47%) και ακόμη περισσότεροι (63%) έχουν δει άλλους υπαλλήλους να χρησιμοποιούν ΑΙ με ακατάλληλο τρόπο.
Η χρήση ευαίσθητων πληροφοριών και η έλλειψη ελέγχου των απαντήσεων
Μια βασική ανησυχία σχετικά με τα εργαλεία τεχνητής νοημοσύνης στον εργασιακό χώρο είναι ο χειρισμός ευαίσθητων εταιρικών πληροφοριών – όπως είναι οι οικονομικές πληροφορίες, οι πληροφορίες πωλήσεων ή οι πληροφορίες πελατών.
Σχεδόν οι μισοί (48%) εργαζόμενοι έχουν ανεβάσει ευαίσθητες πληροφορίες της εταιρείας ή των πελατών τους σε δημόσια εργαλεία τεχνητής νοημοσύνης και το 44% παραδέχεται ότι έχει χρησιμοποιήσει την τεχνητή νοημοσύνη στην εργασία του με τρόπους που αντιβαίνουν στις οργανωτικές πολιτικές.
Αυτό ευθυγραμμίζεται με άλλες έρευνες που δείχνουν ότι το 27% του περιεχομένου που τοποθετείται σε εργαλεία τεχνητής νοημοσύνης από τους εργαζόμενους είναι ευαίσθητο.
Διαπιστώθηκε ότι η αυταρέσκεια στη χρήση της Τεχνητής Νοημοσύνης είναι επίσης ευρέως διαδεδομένη, με το 66% των ερωτηθέντων να δηλώνουν ότι έχουν βασιστεί στην παραγωγή αποτελεσμάτων σε ζητήματα χωρίς να τα αξιολογήσουν. Δεν προκαλεί έκπληξη, λοιπόν, το γεγονός ότι η πλειοψηφία (56%) έχει κάνει λάθη στην εργασία της λόγω της ΑΙ.
Οι νεότεροι εργαζόμενοι (ηλικίας 18-34 ετών) είναι πιο πιθανό να συμμετάσχουν σε ακατάλληλη και εφησυχαστική χρήση από ό,τι οι μεγαλύτεροι σε ηλικία εργαζόμενοι (ηλικίας 35 ετών και άνω).
Αυτό ενέχει σοβαρούς κινδύνους για τους οργανισμούς και τους εργαζόμενους. Τέτοια λάθη έχουν ήδη οδηγήσει σε καλά τεκμηριωμένες περιπτώσεις οικονομικής ζημίας, πλήξης της φήμης και παραβίασης της ιδιωτικής ζωής.
Περίπου το ένα τρίτο (35%) των εργαζομένων δηλώνουν ότι η χρήση εργαλείων ΑΙ στο χώρο εργασίας τους έχει αυξήσει τους κινδύνους προστασίας της ιδιωτικής ζωής και συμμόρφωσης.
Δύσκολη η διαχείριση των κινδύνων
Όταν οι εργαζόμενοι δεν είναι ξεκάθαροι σχετικά με το πώς χρησιμοποιούν την ΤΝ, η διαχείριση των κινδύνων γίνεται ακόμη πιο δύσκολη.
Διαπιστώθηκε, ακόμα, ότι οι περισσότεροι εργαζόμενοι έχουν αποφύγει να αποκαλύψουν πότε χρησιμοποιούν την Τεχνητή Νοημοσύνη (61%), έχουν παρουσιάσει το περιεχόμενο που παράγεται από την ΑΙ ως δικό τους (55%) και έχουν χρησιμοποιήσει εργαλεία ΑΙ χωρίς να γνωρίζουν αν επιτρέπεται (66%).
Αυτή η αόρατη ή «σκιώδης χρήση AI» δεν επιδεινώνει απλώς τους κινδύνους – δυσχεραίνει επίσης σοβαρά την ικανότητα ενός οργανισμού να εντοπίζει, να διαχειρίζεται και να μετριάζει τους κινδύνους, αναφέρει η έρευνα στο Conversation.
Η έλλειψη κατάρτισης, καθοδήγησης και ηγεσίας φαίνεται να τροφοδοτεί αυτή την εφησυχαστική χρήση. Παρά την επικράτηση του ΑΙ, μόνο το ένα τρίτο των εργαζομένων (34%) δηλώνει ότι ο οργανισμός του διαθέτει πολιτική που καθοδηγεί τη χρήση εργαλείων δημιουργικής Τεχνητής Νοημοσύνης, ενώ το 6% δηλώνει ότι ο οργανισμός του την απαγορεύει.
Η πίεση για την υιοθέτηση της ΑΙ μπορεί επίσης να τροφοδοτεί περαιτέρω την χρήση, με τους μισούς εργαζόμενους να φοβούνται ότι θα μείνουν πίσω αν δεν το κάνουν.
Αναγκαία η καθοδήγηση
Συλλογικά, τα ευρήματα αποκαλύπτουν ένα σημαντικό κενό στη διακυβέρνηση των εργαλείων ΑΙ και μια επείγουσα ανάγκη για τους οργανισμούς να καθοδηγούν και να διαχειρίζονται τον τρόπο με τον οποίο οι εργαζόμενοι τα χρησιμοποιούν στην καθημερινή τους εργασία. Η αντιμετώπιση αυτού του προβλήματος θα απαιτήσει μια προληπτική και σκόπιμη προσέγγιση.
Η επένδυση σε υπεύθυνη κατάρτιση των εργαζομένων σε θέματα Τεχνητής Νοημοσύνης είναι καθοριστικής σημασίας.
Είναι αναγκαίο οι εργαζόμενοι να επαληθεύουν τα αποτελέσματα των εργαλείων και να εξετάζουν τους περιορισμούς τους πριν από τη λήψη αποφάσεων.
Διαπιστώθηκε ότι ο αλφαβητισμός στην Τεχνητή Νοημοσύνη σχετίζεται επίσης με μεγαλύτερη εμπιστοσύνη και με περισσότερα οφέλη στη χρήση της στην εργασία.
Παρά ταύτα, λιγότεροι από τους μισούς εργαζόμενους (47%) αναφέρουν ότι έχουν λάβει εκπαίδευση στην ΑΙ.
Οι οργανισμοί πρέπει επίσης να θέσουν σε εφαρμογή σαφείς πολιτικές, κατευθυντήριες γραμμές, συστήματα λογοδοσίας και εποπτείας, καθώς και μέτρα προστασίας της ιδιωτικής ζωής και της ασφάλειας των δεδομένων.
Υπάρχουν πολλοί πόροι για να βοηθήσουν τους οργανισμούς να αναπτύξουν ισχυρά συστήματα διακυβέρνησης της ΑΙ και να υποστηρίξουν την υπεύθυνη χρήση της.
Τέλος, είναι ζωτικής σημασίας να δημιουργηθεί ένα ψυχολογικά ασφαλές εργασιακό περιβάλλον, όπου οι εργαζόμενοι αισθάνονται άνετα να μοιράζονται πώς και πότε χρησιμοποιούν εργαλεία Τεχνητής Νοημοσύνης.
*Από την Βασιλική Δρίβα