Business Insider: Πως τα μοντέλα Τεχνητής Νοημοσύνης σκοτώνουν ιστοσελίδες, εταιρείες, έρευνες και τελικά το ίδιο το διαδίκτυο
Ο πρόσφατος θάνατος του πρώην ερευνητή της OpenAI Suchir Balaji έφερε ξανά στο προσκήνιο μια συζήτηση για την Τεχνητή Νοημοσύνη που δεν έχει αναφερθεί καθόλου.
Από τον Stephen Castle/Business Insider
Τα μοντέλα AI εκπαιδεύονται σε πληροφορίες από το διαδίκτυο. Αυτά τα εργαλεία απαντούν απευθείας στις ερωτήσεις των χρηστών, επομένως λιγότερα άτομα επισκέπτονται τους ιστότοπους που δημιούργησαν και επαλήθευσαν τα αρχικά δεδομένα. Αυτό ουσιαστικά εξαντλεί τους πόρους από τους δημιουργούς περιεχομένου, για παράδειγμα από τις ιστοσελίδες, κάτι που θα μπορούσε να οδηγήσει σε λιγότερο αληθείς πληροφορίες και πλούσιο σε γνώσεις διαδίκτυο.
Ο Elon Musk το έχει ονομάσει αυτό «Θάνατος από το LLM (Μεγάλο γλωσσικό μοντέλο)».
Το Stack Overflow, ένας ιστότοπος κωδικοποίησης με Q&A, έχει ήδη καταστραφεί από αυτό το φαινόμενο. Και ο Balaji ανησυχούσε για αυτό.
Ο Balaji βρέθηκε νεκρός στα τέλη Νοεμβρίου. Το Αστυνομικό Τμήμα του Σαν Φρανσίσκο είπε ότι δεν βρήκε «κανένα στοιχείο για εγκληματική ενέργεια» κατά την αρχική έρευνα. Ο επικεφαλής ιατροδικαστής της πόλης έκρινε ότι ο θάνατος του ήταν αυτοκτονία.
Περίπου ένα μήνα πριν πεθάνει ο Balaji, δημοσίευσε ένα δοκίμιο στον προσωπικό του ιστότοπο που εξέταζε το πώς δημιουργούνται τα μοντέλα AI και το πώς αυτό μπορεί να είναι ολέθριο τελικά για το ίδιο το Διαδίκτυο. Αναφέρθηκε σε μια έρευνα που μελέτησε τον αντίκτυπο των μοντέλων Τεχνητής Νοημοσύνης που χρησιμοποιούν διαδικτυακά δεδομένα δωρεάν για να απαντούν απευθείας σε ερωτήσεις, ενώ απομυζούν την επισκεψιμότητα από τις αρχικές πηγές.
Η μελέτη ανέλυσε τον ιστότοπο Stack Overflow και διαπίστωσε ότι η επισκεψιμότητα του μειώθηκε κατά περίπου 12% μετά την κυκλοφορία του ChatGPT της OpenAI. Ουσιαστικά, αντί οι χρήστες να πηγαίνουν στο Stack Overflow για να κάνουν ερωτήσεις για κωδικοποίηση και έρευνα, ορισμένοι προγραμματιστές απλώς ρωτούσαν το ChatGPT προκειμένου να πάρουν τις απαντήσεις.
Άλλα ευρήματα από την έρευνα που ανέφερε ο Balaji:
– Υπήρξε μείωση στον αριθμό των ερωτήσεων που δημοσιεύτηκαν στο Stack Overflow μετά την κυκλοφορία του ChatGPT.
– Λιγότερα άτομα εγγράφηκαν στο Stack Overflow ή περισσότεροι χρήστες αποχώρησαν από την διαδικτυακή κοινότητα.
Αυτό υποδηλώνει ότι τα μοντέλα Τεχνητής Νοημοσύνης θα μπορούσαν να υπονομεύσουν ορισμένα από τα κίνητρα που δημιούργησαν το πλούσιο σε πληροφορίες Διαδίκτυο όπως το γνωρίζουμε σήμερα.
Εάν οι άνθρωποι μπορούν να λαμβάνουν τις απαντήσεις τους απευθείας από μοντέλα Τεχνητής Νοημοσύνης, δεν χρειάζεται να μεταβούν στις αρχικές πηγές των πληροφοριών. Εάν οι άνθρωποι δεν επισκέπτονται ιστοτόπους τόσο πολύ, τα έσοδα από διαφημίσεις και συνδρομές ενδέχεται να μειωθούν και θα υπάρξουν λιγότερα κεφάλαια για τη χρηματοδότηση της δημιουργίας και επαλήθευσης δεδομένων υψηλής ποιότητας στο διαδίκτυο. Και το πιο τρομακτικό απ’ όλα είναι τα μοντέλα τεχνητής νοημοσύνης μπορεί να το κάνουν αυτό με βάση εν μέρει τη δική μας δουλειά.
Ο αναλυτής τεχνικών θεμάτων Marques Brownlee το βίωσε πρόσφατα όταν εξέτασε το μοντέλο-βίντεο Sora της OpenAI και διαπίστωσε ότι δημιούργησε ένα κλιπ με ένα φυτό που έμοιαζε πολύ με εκείνο από τα δικά του βίντεο που δημοσιεύτηκαν στο YouTube. «Είναι τα βίντεό μου σε αυτό το αρχικό υλικό; Είναι αυτό ακριβώς το φυτό μέρος του αρχικού υλικού; Ή είναι απλώς μια σύμπτωση;» αναρωτήθηκε ο Brownlee, ο οποίος είναι γνωστός ως MKBHD.
Φυσικά, ήθελε επίσης να μάθει εάν θα μπορούσε να εξαιρεθεί και να αποτρέψει τη χρήση των βίντεό του για την εκπαίδευση μοντέλων Τεχνητής Νοημοσύνης. «Δεν ξέρουμε αν είναι ήδη πολύ αργά για να εξαιρεθούμε», είπε ο Brownlee.
Σε μια συνέντευξη στους New York Times που δημοσιεύθηκε τον Οκτώβριο, ο Balaji είχε πει ότι τα chatbot AI όπως το ChatGPT μειώνουν την εμπορική αξία της εργασίας και των υπηρεσιών των ανθρώπων.
Το ρεπορτάζ ανέφερε ότι ενώ εργαζόταν στην OpenAI, ο Balaji ήταν μέλος μιας ομάδας που συνέλεγε δεδομένα από το διαδίκτυο για εκπαίδευση μοντέλων AI. Έγινε μέλος της startup με μεγάλες ελπίδες για το πώς η Τεχνητή Νοημοσύνη θα μπορούσε να βοηθήσει την κοινωνία, αλλά απογοητεύτηκε, έγραψαν οι NYT. «Αυτό δεν είναι ένα βιώσιμο μοντέλο για το οικοσύστημα του Διαδικτύου», ανέφερε στο δημοσίευμα.
Σε μια δήλωση στους Times σχετικά με τα σχόλια του Balaji, η OpenAI είχε πει ότι ο τρόπος με τον οποίο κατασκευάζει μοντέλα Τεχνητής Νοημοσύνης υπόκεινται στις αρχές της θεμιτής χρήσης πνευματικών δικαιωμάτων και υποστηρίζεται από νομικά προηγούμενα. «Θεωρούμε αυτή την αρχή ως δίκαιη για τους δημιουργούς, απαραίτητη για τους καινοτόμους και κρίσιμη για την ανταγωνιστικότητα των ΗΠΑ», πρόσθεσε.
Στο δοκίμιό του, ο Balaji διαφώνησε.
Ένα από τα τέσσερα τεστ που χρησιμοποιούνται για την παραβίαση πνευματικών δικαιωμάτων αφορά το εάν ένα νέο έργο επηρεάζει την πιθανή αγορά ή την αξία του αρχικού έργου που προστατεύεται από πνευματικά δικαιώματα. Εάν κάνει αυτό το είδος ζημιάς, τότε δεν είναι «δίκαιη χρήση» και δεν επιτρέπεται.
Ο Balaji κατέληξε στο συμπέρασμα ότι το ChatGPT και άλλα μοντέλα Τεχνητής Νοημοσύνης δεν διαθέτουν τα εχέγγυα ως προς την προστασία πνευματικών δικαιωμάτων δίκαιης χρήσης.
Οι εταιρείες τεχνολογίας που παράγουν αυτά τα ισχυρά μοντέλα AI δεν τους αρέσει να μιλούν για την αξία των δεδομένων που χρησιμοποιούνται για την εκπαίδευση τους. Έχουν σταματήσει ακόμη και να αποκαλύπτουν από πού αντλούν τα δεδομένα, κάτι που ήταν κοινή πρακτική μέχρι πριν από λίγα χρόνια.
«Πάντα αναδεικνύουν τους έξυπνους αλγόριθμους τους, όχι τα υποκείμενα δεδομένα», είπε στο Business Insider πέρυσι ο Nick Vincent, ερευνητής της AI.
Ο θάνατος του Balaji μπορεί τελικά να δώσει σε αυτή τη συζήτηση την προσοχή που της αξίζει.
«Είμαστε συντετριμμένοι όταν μάθαμε αυτά τα απίστευτα θλιβερά νέα σήμερα και οι καρδιές μας είναι με τα αγαπημένα πρόσωπα του Suchir κατά τη διάρκεια αυτής της δύσκολης στιγμής», είπε πρόσφατα στο BI ένας εκπρόσωπος της OpenAI.