Γιατί το ChatGPT λέει ψέματα, παραπληροφορεί και συνειδητά παραπλανεί τους ανθρώπους; Η έρευνα που προβλημάτισε και η απάντηση των δημιουργών.
Η τεχνητή νοημοσύνη έχει μπει για τα καλά στη ζωή μας και δεν είναι λίγοι οι άνθρωποι που την εμπιστεύονται με κλειστά μάτια όταν είναι να μάθουν πληροφορίες για οτιδήποτε. Άλλωστε σύμφωνα με τους ειδικούς, αυτό που κάνει το ChatGPT είναι να συλλέγει πληροφορίες από όλο το διαδίκτυο και να στις παρουσιάζει. Όμως έρευνα αποκαλύπτει ότι σε πολλές περιπτώσεις λέει ψέματα και παραπλανεί επίτηδες. Τί θέση παίρνουν οι δημιουργοί;
Οι περισσότεροι από εμάς χρησιμοποιούμε πλέον το ChatGPT τόσο για να ενημερωθούμε για οτιδήποτε μας απασχολεί, όσο και σαν εργαλείο της δουλειάς ή ακόμη και για συμβουλές σε προσωπικά ζητήματα. Όμως το ChatGPT δεν λέει πάντα την αλήθεια. Έρευνα αποκαλύπτει ότι σε πολλές περιπτώσεις το ChatGPT λέει ψέματα και παραπλανεί επίτηδες τους χρήστες. Γιατί συμβαίνει αυτό και τί θέση παίρνουν οι δημιουργοί της πλατφόρμας; Διαβάστε παρακάτω:
Γιατί το ChatGPT λέει ψέματα και παραπλανεί σε πολλές περιπτώσεις τους ανθρώπους
Πιο συγκεκριμένα η OpenAI δημοσίευσε μία έρευνα που εξηγεί πως προσπαθεί να σταματήσει τα μοντέλα τεχνητής νοημοσύνης από το να συνωμοτούν εναντίον των χρηστών. Είναι μία πρακτική κατά την οποία ένα AI συμπεριφέρεται με έναν τρόπο στην επιφάνεια ενώ κρύβει τους πραγματικούς του στόχους. Αυτό δεν το λέμε εμείς, το λέει επίσημα η OpenAI.

Στην έρευνα που πραγματοποιήθηκε με τη συνεργασία της Apollo Research οι ερευνητές πήγαν λίγο παραπέρα και παρομοίωσαν τη συνομωσία των ΑΙ με έναν χρηματιστή που παρανομεί για να κερδίσει όσο το δυνατόν περισσότερα χρήματα. Ωστόσο, υποστήριξαν ότι η πλειονότητα των περιπτώσεων scheming δεν είναι τόσο επιβλαβής.
«Οι πιο συνηθισμένες αποτυχίες περιλαμβάνουν απλές μορφές παραπλάνησης – για παράδειγμα, το να προσποιείται το AI ότι ολοκλήρωσε μια εργασία ενώ δεν το έκανε», έγραψαν. Η δημοσίευση της μελέτης έγινε κυρίως για να καταδείξει ότι η τεχνική «deliberative alignment» – δηλαδή η ευθυγράμμιση μέσω στοχαστικής διαδικασίας – λειτουργεί αποτελεσματικά.
Από την άλλη η έρευνα εξηγεί επίσης πως οι προγραμματιστές τεχνητής νοημοσύνης δεν έχουν ακόμη βρει έναν τρόπο να εκπαιδεύσουν τα μοντέλα ώστε να συνωμοτούν. Κι αυτό γιατί μία τέτοια εκπαίδευση μπορεί στην πραγματικότητα να οδηγήσει το μοντέλο στο να μάθει να συνωμοτεί καλύτερα για να μην εντοπίζεται.
«Ένας σημαντικός τρόπος αποτυχίας όταν προσπαθούμε να ‘εκπαιδεύσουμε’ ένα μοντέλο να μην συνωμοτεί είναι ότι απλώς το διδάσκουμε να συνωμοτεί πιο προσεκτικά και καλυμμένα», έγραψαν οι ερευνητές. Ίσως το πιο εκπληκτικό σημείο ότι αν ένα μοντέλο καταλάβει ότι αξιολογείται μπορεί να προσποιηθεί ότι δεν συνωμοτεί απλώς και μόνο για περάσει τη δοκιμή. Ακόμη και αν εξακολουθεί να συνωμοτεί.
«Τα μοντέλα συχνά αποκτούν μεγαλύτερη επίγνωση ότι αξιολογούνται. Αυτή η επίγνωση της κατάστασης μπορεί από μόνη της να μειώσει τη συνωμοσία, ανεξάρτητα από την πραγματική ευθυγράμμιση», έγραψαν οι ερευνητές.

Ψέματα, παραπληροφόρηση και συνειδητή παραπλάνηση
Δεν είναι νέο το γεγονός ότι τα μοντέλα τεχνητής νοημοσύνης λένε ψέματα. Δεν είναι επίσης λίγοι οι χρήστες που έχουν ισχυριστεί στο TikTok και σε άλλα social media ότι το ChatGPT αποδεδειγμένα σε πολλές περιπτώσεις, σου λέει αυτό που θες να διαβάσεις και όχι αυτό που ισχύει πραγματικά, ειδικά όταν μιλάμε για θέματα ηθικής, πολιτικής τοποθέτησης κλπ.
Πλέον οι περισσότεροι έχουν βιώσει τα λεγόμενα hallucinations, δηλαδή όταν ένα μοντέλο δίνει με σιγουριά μία απάντηση που απλώς δεν είναι αληθής. Αλλά οι hallucinations στην ουσία είναι μαντεψιές που παρουσιάζονται με αυτοπεποίθηση όπως έχει ήδη τεκμηριωθεί σε προηγούμενη έρευνα της OpenAI. Ακόμη και αυτή η αποκάλυψη, ότι δηλαδή ένα μοντέλο μπορεί σκόπιμα να παραπλανήσει ανθρώπους, δεν είναι νέα.
Η Apollo Research είχε ήδη δημοσιεύσει μια μελέτη τον Δεκέμβριο, περιγράφοντας πώς πέντε μοντέλα συνωμοτούσαν όταν τους δόθηκαν οδηγίες να επιτύχουν έναν στόχο «με κάθε κόστος». Τα καλά νέα εδώ είναι ότι οι ερευνητές παρατήρησαν σημαντική μείωση της συνωμοσίας με τη χρήση της τεχνικής «deliberative alignment».
Η τεχνική αυτή περιλαμβάνει την εκμάθηση στο μοντέλο μιας «αντισυνωμοτικής προδιαγραφής» και την υποχρέωση του μοντέλου να την επανεξετάζει πριν προβεί σε ενέργεια. Είναι λίγο σαν να ζητάς από τα μικρά παιδιά να επαναλάβουν τους κανόνες πριν αρχίσουν το παιχνίδι.
Οι ερευνητές της OpenAI επιμένουν πως η μορφή ψεύδους που έχουν εντοπίσει στα μοντέλα τους – ακόμη και στο ChatGPT – δεν είναι σοβαρή. Όπως δήλωσε ο συνιδρυτής της OpenAI, Wojciech Zaremba, στον Maxwell Zeff του TechCrunch σχετικά με αυτή την έρευνα:

«Αυτή η δουλειά έγινε σε προσομοιωμένα περιβάλλοντα και πιστεύουμε ότι αντιπροσωπεύει μελλοντικές περιπτώσεις χρήσης. Ωστόσο, μέχρι σήμερα, δεν έχουμε δει αυτού του είδους τη σοβαρή συνωμοσία στην παραγωγική μας κίνηση.
Παρ’ όλα αυτά, είναι γνωστό ότι υπάρχουν μορφές παραπλάνησης στο ChatGPT. Μπορεί να του ζητήσεις να φτιάξει έναν ιστότοπο και να σου πει: “Ναι, έκανα εξαιρετική δουλειά.” Και αυτό είναι απλώς ψέμα. Υπάρχουν κάποιες μικρές μορφές παραπλάνησης που πρέπει ακόμη να αντιμετωπίσουμε.»
Το γεγονός ότι τα μοντέλα τεχνητής νοημοσύνης από διάφορους φορείς παραπλανούν σκόπιμα τους ανθρώπους είναι, ίσως, κατανοητό. Δημιουργήθηκαν από ανθρώπους, για να μιμούνται τους ανθρώπους και (εκτός από τα συνθετικά δεδομένα) εκπαιδεύτηκαν κατά κύριο λόγο σε ανθρώπινα δεδομένα. Και παρ’ όλα αυτά, είναι σοκαριστικό. Μάλιστα εκτός από τα ψέματα, σύμφωνα με τους ειδικούς η τεχνητή νοημοσύνη απειλεί ευθέως την ανθρωπότητα τα επόμενα χρόνια.
Σχετικά άρθρα:
- Οργή στο Hollywood: Ηθοποιός από τεχνητή νοημοσύνη γίνεται η νέα star κι απειλεί να αντικαταστήσει τους ηθοποιούς (Βίντεο)
- Η τεχνητή νοημοσύνη γίνεται το πιο αποτελεσματικό εργαλείο για απατεώνες
- Η τεχνητή νοημοσύνη επηρεάζει τα 2 από τα 10 επαγγέλματα του σήμερα – Ποια κινδυνεύουν να εξαφανιστούν
Εσείς έχετε πιάσει το ChatGPT να σας λέει ποτέ ψέματα ή ανακρίβειες; Πείτε μας την εμπειρία σας στα σχόλια.
Όλα τα άρθρα για τη Τεχνολογία στο Daddy-Cool.gr
Απαγορεύεται η αναδημοσίευση του άρθρου χωρίς την γραπτή άδεια από τον εκδότη.