Google: Η τεχνητή νοημοσύνη είναι το ίδιο επικίνδυνη με τα πυρηνικά όπλα
Μιλώντας στη διάσημη εκπομπή δημοσιογραφικής έρευνας 60 Minutes του αμερικανικού τηλεοπτικού δικτύου CBS o διευθύνων σύμβουλος της Google Σούνταρ Πιτσάι ομολόγησε το φόβο που τον διακατέχει από τη ραγδαία εξέλιξη της τεχνολογίας τεχνητής νοημοσύνης. Ο CEO του αμερικανικού κολοσσού διαδικτυακών υπηρεσιών ανέφερε χαρακτηριστικά ότι οι φόβοι αυτοί τον «κρατούν ξύπνιο τη νύχτα».
Ανάμεσα στα άλλα ο Πιτσάι επεσήμανε τον κίνδυνο της δημιουργίας και διασποράς ψευδών ειδήσεων από προγράμματα τεχνητής νοημοσύνης από την στιγμή που έχουν τη δυνατότητα να δείχνουν οποιονδήποτε να λέει ή να κάνει κάτι που ουδέποτε έχει κάνει ή πει και μέχρι να αποκαλυφθεί η αλήθεια θα έχει δημιουργηθεί μεγάλη ζημιά σε πολλά επίπεδα.
Ο Πιτσάι υποστήριξε ότι απαιτείται ένα παγκόσμιο ρυθμιστικό πλαίσιο για την τεχνητή νοημοσύνη παρόμοιο με αυτό που υπάρχει για τα πυρηνικά όπλα, ένα πλαίσιο στο οποίο πρέπει να συμφωνήσουν οι κυβερνήσεις των χωρών. Η εμφάνιση του προγράμματος τεχνητής νοημοσύνης ChatGPT πυροδότησε μια φρενήρη κούρσα για την ανάπτυξη ολοένα και πιο προηγμένων συστημάτων τεχνητής νοημοσύνης με εταιρείες αλλά και κράτη να ανακοινώνουν μέσα σε χρονικό διάστημα λίγων μηνών τη δημιουργία διαφόρων τέτοιων προγραμμάτων.
Η Google είναι μια από αυτές τις εταιρείες παρουσιάζοντας το Bard, ένα πρόγραμμα που ενσωματώνεται σταδιακά στη μηχανή αναζήτησης της Google η οποία μονοπωλεί αυτή τη στιγμή τον συγκεκριμένο τομέα του Διαδικτύου. Όμως η Google φοβάται την εισβολή στα… χωράφια της από την Microsoft η οποία στηρίζει οικονομικά την εταιρεία που δημιούργησε και εξελίσσει το ChatGPT. Ο Πιτσάι έσπευσε να υπερασπιστεί το Bard υποστηρίζοντας ότι το πρόγραμμα αυτό είναι ελεγμένο για την ασφάλεια του και ότι η Google συμπεριφέρεται υπεύθυνα αποφεύγοντας να προσφέρει πρόσβαση στους χρήστες σε υπό δοκιμή εκδόσεις του Bard.
Ο επικεφαλής της Google ομολόγησε επίσης πώς όπως και οι περισσότεροι αν όχι όλοι οι ερευνητές έτσι και αυτοί της εταιρείας του δεν μπορούν να κατανοήσουν πλήρως το πώς λειτουργεί η τεχνητή νοημοσύνη την οποία περιγράφει ως ένα «μαύρο κουτί». Είπε επίσης ότι η τεχνητή νοημοσύνη εξελίσσεται με πολύ ταχύτερο ρυθμό από αυτό που μπορεί να αντιληφθεί, να κατανοήσει και να αφομοιώσει ο ανθρώπινος πολιτισμός και σημείωσε ότι η ανθρωπότητα αρχίσει όμως να κατανοεί τους κινδύνους που απορρέουν από την τεχνητή νοημοσύνη και ξεκινά τώρα μια προσπάθεια να βρεθούν τρόποι ελέγχου της.
Χιλιάδες ειδικοί και άνθρωποι της βιομηχανίας της τεχνολογίας συνυπογράφουν μια επιστολή στην οποία ζητείται μια εξάμηνη παύση της έρευνας στον τομέα της τεχνητής νοημοσύνης σε παγκόσμιο επίπεδο ώστε να συζητηθούν τρόποι ελέγχου της ανάπτυξης τεχνολογιών τεχνητής νοημοσύνης και γενικότερα τρόποι πρόληψης ή παρέμβασης απέναντι σε πιθανούς κινδύνους αυτής της τεχνολογίας. Υπάρχουν φωνές ειδικών που λένε ότι πρέπει να σταματήσει εντελώς η περαιτέρω εξέλιξη της τεχνητής νοημοσύνης γιατί αποτελεί θανάσιμο κίνδυνο για την ανθρωπότητα αλλά υπάρχουν και αντιδράσεις όπως αυτή του επικεφαλής της Open AI, της εταιρείας που δημιούργησε το ChatGPT, που δήλωσε ότι η επιστολή αυτή είναι γενικόλογη και δεν αναφέρει συγκεκριμένα ποιοι τεχνικοί τομείς της τεχνητής νοημοσύνης είναι επικίνδυνοι και πρέπει να διακοπεί η έρευνα σε αυτούς.