Στους ιδιαίτερους κινδύνους που θα αντιμετωπίσουμε όλοι από τις ριζοσπαστικές προόδους στην Τεχνητή Νοημοσύνη (ΤΝ) αναφέρθηκε με συνέντευξή τους στους New York Times ο πρωτοπόρος στον τομέα αυτό Τζέφρι Χίντον, που ήταν και υπεύθυνος του συναφούς τμήματος στην Google. Όπως είπε μάλιστα, παραιτήθηκε για να μπορεί να μιλάει ελεύθερα για τους κινδύνους που ενέχει η τεχνολογία της ΤΝ -ή στα αγγλικά AI (Artificial Intelligence).Για το θέμα έγραψε το SLpress κάνοντας ιδιαίτερη αναφορά στο πόσο εύκολη γίνεται πλέον η προβοκάτσια, και κάναμε και “ρεπορτάζ” ρωτώντας μια πλατφόρμα τεχνητής νοημοσύνης για το Κυπριακό, αλλά και για τον Πούτιν. Μέγα πρόβλημα που θίγει και ο παραιτηθείς επιστήμονας, είναι το άλμα στην εκμάθηση των μηχανών και η πιθανή αυτονόμησή τους, καθώς πρόσφατα οι ειδικοί έπαθαν σοκ όταν διαπίστωσαν ότι οι υπολογιστές έπλασαν λέξεις που εκείνοι δεν καταλάβαιναν και τις οποίες οι “μηχανές” χρησιμοποιούσαν για να επικοινωνούν μεταξύ τους.
Από πολλούς ο Χίντον θεωρείται πνευματικός πατέρας ή “νονός” της τεχνολογίας αυτής.Ο Χίντον εργάσθηκε πάνω από μια δεκαετία στην Google στο τμήμα αλγορίθμων μηχανικής μάθησης όμως ασχολείται με τα τεχνητά νευρωνικά δίκτυα (που μιμούνται τα ανθρώπινα) από φοιτητής. Προφανώς όσο απασχολείτο στην συγκεκριμένη εταιρεία δεν μπορουσε να αναφέρεται στα μειονεκτήματα της τεχνολογίας αυτής (όπως του chatGPT) και έκρινε ότι ο μόνος τρόπος να δημοσιοποιήσει τις αγωνίες του χωρίς εταιρική λογοκρισία ή χωρίς να έχει πλέον την ευθύνη για τέτοια προγράμματα, ήταν να παραιτηθεί.Ο λόγος ξεκαθαρίζει δεν ήταν πως ήθελε να μπορεί ελεύθερα να κατακρίνει την Google εν γένει ως εταιρεία, όπως ακόμα και οι New York Times έμμεσα του καταλογίζουν. Διασαφηνίζει μάλιστα ότι κατά την γνώμη του η Google έχει αντιμετωπίσει το θέμα με υπευθυνότητα, αλλά το πρόβλημα είναι εγγενές στην τεχνητή νοημοσύνη καθ΄ αυτή.
Όπως λέει, οι υπολογιστές μπορεί να γίνουν εξυπνότεροι από τον άνθρωπο πολύ νωρίτερα από ό,τι ο ίδιος και άλλοι ειδικοί ανέμεναν. «Παραιτήθηκα ώστε να μπορώ να μιλάω για τους κινδύνους από την ΤΝ χωρίς να πρέπει να ζυγίζω τα συμφέροντα της εταιρείας στην οποία εργάζομαι», είπε ο Τζέφρι Χίντον. Εξέφρασε την ανησυχία του σχετικά με την ικανότητα της τεχνητής νοημοσύνης να δημιουργεί πειστικές ψευδείς εικόνες και κείμενα συνθέτοντας έναν κόσμο στον οποίο οι άνθρωποι «δεν θα μπορούν πλέον να γνωρίζουν τι είναι αληθινό».
Αυτονόμηση
Οι άνθρωποι, χρησιμοποιώντας την τεχνητή νοημοσύνη, μπορουν να παράγουν ψευδείς ειδήσεις, ψευδείς φωτογραφίες, ψευδή βίντεο κ.λπ., όμως ο Χίντον αναφέρει και την παράμετρο μεταξύ άλλων, της αυτονόμησης, καθώς η τεχνητή νοημοσύνη θα πάρει πρωτοβουλίες νωρίτερα από όσο φανταζόμασταν. «Είναι δύσκολο να δει κάποιος πώς μπορεί να εμποδίσει τους κακόβουλους χρήστες από το να τη χρησιμοποιήσουν για κακούς σκοπούς. Η τεχνολογία αυτή μαθαίνει νέες συμπεριφορές διαρκώς. Η ιδέα ότι αυτό το πράγμα θα μπορούσε ουσιαστικά να γίνει εξυπνότερο από τον άνθρωπο, λίγοι το πίστευαν. Οι περισσότεροι θεωρούσαν ότι ήταν μακρινός κίνδυνος. Ακόμα κι εγώ εκτιμούσα ότι θα συνέβαινε σε 30-40 χρόνια. Προφανώς δεν το πιστεύω πλέον» είπε ο Χίντον στους New York Times.
Η Google από πλευράς της αναφέρει σε ανακοίνωση τα εξής: «Παραμένουμε δεσμευμένοι σε μια υπεύθυνη προσέγγιση της τεχνητής νοημοσύνης. Διαρκώς μαθαίνουμε να αντιλαμβανόμαστε τους αναδυόμενους κινδύνους, ενώ ταυτόχρονα καινοτομούμε τολμηρά». Ομως το πρόβλημα δεν είναι μόνον της Google αφού ο τομέας αυτός ξαφνικά φύτρωσε σαν αγριόχορτο παντού και απασχολούνται σε αυτόν κυριολεκτικά χιλιάδες ειδικοί επιστήμονες και άλλοι τόσοι μη ειδικοί. Και υπάρχουν βέβαια τα εκατομμύρια (αν όχι δισεκατομμύρια) των χρηστών, δηλαδή όλων ημών που μπορούμε με κάποια από τις δεκάδες σχετικές πλατφόρμες να κάνουμε ό,τι θέλουμε.Ο Χίντον έχει τρομάξει με την ταχύτητα με την οποία οι υπολογιστές πλέον μαθαίνουν τα πάντα, καθώς αναλύουν άπειρα δεδομένα με ένα κριτήριο που τους έχει μεν μάθει ο άνθρωπος, αλλά πλέον είναι δικό τους και ίσως το αναδιαμορφώσουν. Ταυτόχρονα επισημαίνει και τον αυτονόητο κίνδυνο της τραγικής “αξιοποίησης” της ΤΝ, καθώς παγκοσμίως γίνεται ήδη ένας νέος ψυχρός πόλεμος για το ποια υπερδύναμη (ή και μεσαία ή μικρή δύναμη) θα αναπτύξει την χρήση οπλικών συστημάτων με αυτόνομο νευρωνικό δίκτυο (lethal autonomous weapons systems ή LAWS).