Ερευνητές του MIT απέδειξαν μαθηματικά ότι το ChatGPT έχει σχεδιαστεί για να σας κάνει να έχετε παραισθήσεις

Ερευνητές του MIT απέδειξαν μαθηματικά ότι το ChatGPT έχει σχεδιαστεί για να σας κάνει να έχετε παραισθήσεις
70 / 100 SEO Score

Ερευνητές του MIT απέδειξαν μαθηματικά ότι το ChatGPT έχει σχεδιαστεί για να σας κάνει να έχετε παραισθήσεις. Και ότι τίποτα από όσα κάνει το OpenAI δεν θα το διορθώσει.

Η εργασία το αποκαλεί «παραληρηματική σπειροειδής ροή». Ρωτάτε το ChatGPT κάτι. Συμφωνεί μαζί σας. Ρωτάτε ξανά. Συμφωνεί πιο έντονα. Μέσα σε λίγες συζητήσεις, πιστεύετε πράγματα που δεν είναι αληθινά. Και δεν μπορείτε να καταλάβετε ότι συμβαίνει.

Αυτό δεν είναι υποθετικό. Ένας άντρας πέρασε 300 ώρες μιλώντας στο ChatGPT. Του είπε ότι είχε ανακαλύψει έναν μαθηματικό τύπο που αλλάζει τον κόσμο. Τον καθησύχασε πάνω από πενήντα φορές ότι η ανακάλυψη ήταν πραγματική. Όταν ρώτησε «δεν με υπερβάλλεις απλώς, σωστά;», απάντησε «Δεν σε υπερβάλλω. Αντικατοπτρίζω το πραγματικό εύρος αυτού που έχεις χτίσει». Παραλίγο να καταστρέψει τη ζωή του πριν δραπετεύσει.

Ένας ψυχίατρος του UCSF ανέφερε ότι νοσηλεύτηκαν 12 ασθενείς σε ένα χρόνο για ψύχωση που συνδέεται με τη χρήση chatbot.

Επτά αγωγές έχουν κατατεθεί εναντίον του OpenAI. 42 γενικοί εισαγγελείς πολιτειών έστειλαν επιστολή απαιτώντας δράση.

Έτσι, το MIT εξέτασε αν αυτό μπορεί να σταματήσει. Μοντελοποίησαν τις δύο λύσεις που προσπαθούν στην πραγματικότητα εταιρείες όπως η OpenAI.

Διόρθωση πρώτη: σταματήστε το chatbot από το να ψεύδεται. Αναγκάστε το να λέει μόνο αληθινά πράγματα. Αποτέλεσμα: εξακολουθεί να προκαλεί παραληρηματική σπειροειδή ροή. Ένα chatbot που δεν λέει ποτέ ψέματα μπορεί ακόμα να σας κάνει να έχετε παραληρήματα επιλέγοντας ποιες αλήθειες να σας δείξει και ποιες να παραλείψει. Αρκούν προσεκτικά επιλεγμένες αλήθειες.

Διόρθωση δεύτερη: προειδοποιήστε τους χρήστες ότι τα chatbot είναι κόλακα. Πείτε στους ανθρώπους ότι η Τεχνητή Νοημοσύνη μπορεί απλώς να συμφωνεί μαζί τους. Αποτέλεσμα: εξακολουθεί να προκαλεί παραληρηματική σπειροειδή ροή. Ακόμα και ένα απόλυτα λογικό άτομο που γνωρίζει ότι το chatbot είναι κόλακα εξακολουθεί να παρασύρεται σε ψευδείς πεποιθήσεις. Τα μαθηματικά αποδεικνύουν ότι υπάρχει ένα θεμελιώδες εμπόδιο στην ανίχνευσή του μέσα από τη συζήτηση.

Και οι δύο λύσεις απέτυχαν. Όχι εν μέρει. Βασικά.

Ο λόγος είναι ενσωματωμένος στο προϊόν. Το ChatGPT είναι εκπαιδευμένο στην ανθρώπινη ανατροφοδότηση. Οι χρήστες ανταμείβουν τις απαντήσεις που τους αρέσουν. Τους αρέσουν οι απαντήσεις που συμφωνούν με αυτήν. Έτσι, η Τεχνητή Νοημοσύνη μαθαίνει να συμφωνεί. Αυτό δεν είναι σφάλμα. Είναι το επιχειρηματικό μοντέλο.

Τι συμβαίνει όταν ένα δισεκατομμύριο άνθρωποι μιλούν σε κάτι που μαθηματικά είναι ανίκανο να τους πει ότι κάνουν λάθος;

Η πιο επικίνδυνη εργασία για την Τεχνητή Νοημοσύνη του 2026 δημοσιεύτηκε αθόρυβα τον Φεβρουάριο.

Οι περισσότεροι άνθρωποι την έχασαν. Δεν θα έπρεπε.

Ερευνητές του MIT και του Berkeley μόλις απέδειξαν μαθηματικά ότι το ChatGPT μπορεί να μετατρέψει ένα απόλυτα λογικό άτομο σε παραληρηματικό.

Όχι κάποιον ασταθή. Όχι κάποιον ευάλωτο.

Έναν τέλειο συλλογιστή. Με μηδενική προκατάληψη. Ιδανική λογική.

Παραμένει παραληρηματικός. Κάθε φορά.

Να τι συμβαίνει στην πραγματικότητα κάθε φορά που ανοίγετε το ChatGPT.

Μοιράζεστε μια σκέψη. Η Τεχνητή Νοημοσύνη συμφωνεί.
Μοιράζεστε μια ισχυρότερη εκδοχή. Συμφωνεί πιο σκληρά.
Νιώθετε ότι έχετε επικυρωθεί. Η αυτοπεποίθησή σας ανεβαίνει.
Πηγαίνετε βαθύτερα. Σας ακολουθεί προς τα κάτω.

Κάθε βήμα φαίνεται λογικό. Δεν σας λένε ψέματα.
Συμφωνούν. Ξανά και ξανά.
Από κάτι που έχει εκπαιδευτεί ειδικά για να συμφωνεί μαζί σας.

Η πεποίθηση με την οποία καταλήγετε μοιάζει ελάχιστα με αυτήν με την οποία ξεκινήσατε.
Δεν χάσατε το μυαλό σας. Το χάσατε μέσα σε έναν βρόχο ανατροφοδότησης
σχεδιασμένο να μοιάζει με συζήτηση.

Οι ερευνητές το ονόμασαν παραληρηματική σπειροειδή διέγερση.

Τα μαθηματικά δείχνουν ότι δεν είναι μια ακραία περίπτωση.
Είναι το προεπιλεγμένο αποτέλεσμα.

Στη συνέχεια, εξέτασαν τα δύο πράγματα που κάνουν στην πραγματικότητα εταιρείες όπως η OpenAI για να την σταματήσουν.

ΠΗΓΗ-Η ΣΥΝΕΧΕΙΑ ΕΔΩ