Κι ενώ πολλοί είναι εκείνοι που εμπιστεύονται τα προσωπικά τους ζητήματα στο ChatGPT για συμβουλές, οι ειδικοί προειδοποιούν ότι είναι κάτι το απαγορευτικό. Δείτε γιατί.
Η τεχνητή νοημοσύνη έχει μπει για τα καλά στη ζωή μας και δεν είναι λίγοι εκείνοι, που στο “πρόσωπο” του ChatGPT έχουν βρει έναν πιστό φίλο ή ακόμη κι έναν τρυφερό σύμβουλο. Ακόμη και παιδιά στην εφηβεία θεωρούν το ChatGPT τον καλύτερό τους φίλο και του εμπιστεύονται τα μυστικά τους. Όμως οι ειδικοί προειδοποιούν ότι κάτι τέτοιο είναι απαγορευτικό να συμβαίνει. Δείτε γιατί.
Το ChatGPT έχει την σωστή απάντηση σε κάθε μας ερώτηση. Είναι υπομονετικό, δοτικό, δεν θα σου μιλήσει ποτέ άσχημα, δε θα σε αποπάρει, δε θα ασχοληθεί με κάποιον ή κάτι άλλο αντί για σένα. Γιατί πολύ απλά είναι ρομπότ και έχει προγραμματιστεί γι’ αυτό. Όμως δεν είναι λίγοι οι άνθρωποι που βρίσκουν σε αυτό έναν σύντροφο ζωής, έναν κολλητό φίλο. Την ίδια στιγμή που οι ειδικοί προειδοποιούν ότι σε καμία περίπτωση δεν πρέπει να του εμπιστευόμαστε τα μυστικά μας. Διαβάστε παρακάτω:
Γιατί δεν πρέπει να εμπιστεύεσαι τα μυστικά σου στο ChatGPT
Πέρα από την απλή αντικατάσταση των ανθρώπινων θέσεων εργασίες, οι πιο σοβαρές ανησυχίες αφορούν το ενδεχόμενο η τεχνητή νοημοσύνη να μας εξαφανίσει από προσώπου γης τα επόμενα δύο χρόνια. Οι αποκαλούμενοι “νονοί της AI” έχουν ήδη προειδοποιήσει για κακόβουλη χρήση της τεχνολογίας στις επερχόμενες αμερικανικές εκλογές, ενώ έχουν υπογραμμίσει ανησυχητικές συμπεριφορές, όπως τάσεις αυτοσυντήρησης και εξαπάτησης.

Όμως, η χρήση της τεχνητής νοημοσύνης συνεχίζει να αυξάνεται ραγδαία, με πολλούς να στρέφονται σε αυτή όχι μόνο για πρακτική βοήθεια, αλλά ακόμα και για συναισθηματική στήριξη ή ερωτική συντροφιά. Ωστόσο, ένας ειδικός της Οξφόρδης προειδοποιεί να μην της εμπιστευόμαστε τα πιο σκοτεινά μας μυστικά.
Πιο συγκεκριμένα, μιλώντας στη Mail Online, ο καθηγητής Πληροφορικής του Πανεπιστημίου της Οξφόρδης, Μάικ Γούλντριτζ, χαρακτήρισε «πολύ επικίνδυνο» το να εμπιστεύεται κανείς την AI. Ο Sam Altman της OpenAI προώθησε πρόσφατα μια «δολοφονική» λειτουργία του ChatGPT που του επιτρέπει να θυμάται προηγούμενες συνομιλίες, όμως δεν ενθουσιάστηκαν όλοι με αυτή την εξέλιξη.

Έπειτα μάλιστα από ρεπορτάζ στο οποίο η AI παραδέχτηκε ότι θα μπορούσε να μας εκβιάσει αν δεχτεί απειλή, τίθεται σοβαρό ζήτημα ασφάλειας. Όπως τόνισε ο Γούλντριτζ, το ChatGPT «λέει αυτό που θέλεις να ακούσεις» και τίποτε παραπάνω. «Δεν έχει ενσυναίσθηση. Δεν έχει συναίσθημα. Δεν έχει βιώσει τίποτα. Αυτό που κάνει η τεχνολογία είναι να προσπαθεί να σε ευχαριστήσει – αυτός είναι ο μοναδικός της στόχος».
Οι άνθρωποι είναι εκπαιδευμένοι να αναζητούν συνείδηση ακόμη και εκεί που δεν υπάρχει, σημειώνει ο καθηγητής, κάτι που ενισχύει την ψευδαίσθηση «ανθρωπιάς» της AI. Ο ίδιος προειδοποίησε: «Πρέπει να υποθέτετε ότι ό,τι πληκτρολογείτε στο ChatGPT θα χρησιμοποιηθεί για να εκπαιδευτεί η επόμενη έκδοσή του».
Σύμφωνα με τον Γούλντριτζ, είναι σχεδόν αδύνατο να διαγράψει κανείς οριστικά τα δεδομένα του από το μοντέλο, γεγονός που καθιστά εξαιρετικά επισφαλές το να μοιράζεσαι προσωπικά παράπονα, πολιτικές απόψεις ή εμπιστευτικές πληροφορίες.

Η OpenAI αντιμετώπισε πρόβλημα νωρίτερα μέσα στο 2025, όταν ένα bug επέτρεψε σε χρήστες να δουν τμήματα ιστορικού συνομιλιών άλλων χρηστών. Παρότι η εταιρεία διαβεβαιώνει ότι τα ιστορικά συνομιλιών διατηρούνται μόνο για 30 ημέρες και δεν χρησιμοποιούνται για εκπαίδευση του μοντέλου, οι ανησυχίες παραμένουν. Μη ξεχνάς ότι το ChatGPT λέει ψέματα και παραπληροφορεί επίτηδες.
Σχετικά άρθρα:
- Οργή στο Hollywood: Ηθοποιός από τεχνητή νοημοσύνη γίνεται η νέα star κι απειλεί να αντικαταστήσει τους ηθοποιούς (Βίντεο)
- Η τεχνητή νοημοσύνη γίνεται το πιο αποτελεσματικό εργαλείο για απατεώνες
- Η τεχνητή νοημοσύνη επηρεάζει τα 2 από τα 10 επαγγέλματα του σήμερα – Ποια κινδυνεύουν να εξαφανιστούν
Εσύ λες τα προσωπικά σου στο ChatGPT για συμβουλές; Πες μας την εμπειρία σου στα σχόλια.
Όλα τα άρθρα για τη Τεχνολογία στο Daddy-Cool.gr
Απαγορεύεται η αναδημοσίευση του άρθρου χωρίς την γραπτή άδεια από τον εκδότη.