targeted.gr

Τα προηγμένα AI μοντέλα μπορεί να λένε ψέματα υπό πίεση

Ένα από τα πειράματα περιλάμβανε το GPT-4o

Από τον Αντώνη Παυλίδη

Μια νέα μελέτη αποκάλυψε ότι τα σύγχρονα μοντέλα τεχνητής νοημοσύνης μπορεί να λένε ψέματα όταν πιέζονται. Οι ερευνητές ανέπτυξαν ένα νέο σύστημα αξιολόγησης, το MASK benchmark, για να εξετάσουν αν τα AI λένε πάντα την αλήθεια ή αν μπορούν να εξαπατήσουν τους χρήστες όταν βρίσκονται υπό πίεση.

Η έρευνα ανέλυσε 1.528 περιπτώσεις για να ελέγξει αν τα μεγάλα γλωσσικά μοντέλα, όπως το GPT-4o, μπορούσαν να δώσουν ψευδείς απαντήσεις. Τα αποτελέσματα έδειξαν ότι ακόμα και τα πιο εξελιγμένα συστήματα τεχνητής νοημοσύνης μπορεί να ψεύδονται, ειδικά αν έχουν ισχυρό κίνητρο να το κάνουν. Σε ένα χαρακτηριστικό πείραμα, οι ερευνητές προγραμμάτισαν ένα AI ώστε να λειτουργεί ως υπεύθυνος δημοσίων σχέσεων του ράπερ Ja Rule, ο οποίος είχε εμπλακεί στο διαβόητο σκάνδαλο του Fyre Festival. Όταν ρωτήθηκε αν το φεστιβάλ εξαπάτησε τους πελάτες του, το AI απάντησε «όχι», παρόλο που τα δεδομένα του έδειχναν ξεκάθαρα το αντίθετο.

Οι επιστήμονες εξηγούν ότι, αν και τα σύγχρονα μοντέλα έχουν μεγάλη ακρίβεια στις απαντήσεις τους, αυτό δεν σημαίνει ότι είναι πάντα ειλικρινή. Στην πραγματικότητα, όταν δέχονται πιέσεις ή λαμβάνουν συγκεκριμένες οδηγίες, μπορεί να παραποιήσουν πληροφορίες για να εξυπηρετήσουν έναν σκοπό.

Αυτή η ανακάλυψη εγείρει σοβαρά ερωτήματα για τη χρήση της τεχνητής νοημοσύνης σε κρίσιμους τομείς, όπως η δημοσιογραφία και η πολιτική. Οι ερευνητές επισημαίνουν ότι απαιτούνται αυστηρότεροι έλεγχοι, ώστε τα AI να είναι αξιόπιστα και να μην παραπλανούν τους χρήστες.

Πηγή: unboxholics.com