Όλο και περισσότερες μεγάλες εταιρείες λένε ότι οι κανόνες για την AI θα αποτελέσουν σημαντικό επιχειρηματικό κίνδυνο
Καθώς οι ηγέτες της τεχνολογίας τσακώνονται για τους κανονισμούς που θα διέπουν την Τεχνητή Νοημοσύνη, τα νομικά τμήματα των εταιρειών τους υπογραμμίζουν τους επιχειρηματικούς κινδύνους που θα μπορούσε να θέσει το συνονθύλευμα των -σε αρχικό στάδιο- κανόνων.
Από τον Lloyd Lee/Business Insider
Ο Διευθύνων Σύμβουλος της DeepMind, Demis Hassabis, ο συνιδρυτής της OpenAI, Sam Altman, ακόμα και ο Elon Musk έχουν ζητήσει διαφορετικούς βαθμούς προστατευτικών ρυθμίσεων, οι οποίοι πιστεύουν ότι θα μπορούσαν, ανάλογα με τους κανόνες που θα θεσπιστούν, να εμποδίσουν την τεχνολογία να λειτουργήσει.
Ειδικοί στον τομέα της τεχνολογίας είπαν στο Business Insider ότι μια ανεξέλεγκτη γενετική Τεχνητή Νοημοσύνη θα μπορούσε να εγκαινιάσει μια «σκοτεινή εποχή», καθώς το έργο που προστατεύεται από πνευματικά δικαιώματα αντιγράφεται από μοντέλα, ρίχνοντας την αξία του, ενώ και η παραπληροφόρηση δημιουργείται και διανέμεται πιο εύκολα.
Καθώς οι ηγέτες της τεχνολογίας και οι υπεύθυνοι χάραξης πολιτικής καταλαβαίνουν πώς θα μοιάζουν πραγματικά αυτά τα μέτρα ασφαλείας, περισσότερες εταιρείες της λίστας Fortune 500 υπογραμμίζουν τους πιθανούς επιχειρηματικούς κινδύνους των κανονισμών.
Μια ανάλυση από την Arize AI, μια startup που βοηθά τις εταιρείες να αντιμετωπίζουν προβλήματα γενετικών συστημάτων Τεχνητής Νοημοσύνης, διαπίστωσε ότι 137 από τις εταιρείες του Fortune 500 -ή περίπου το 27% της λίστας, ανέφεραν στις ετήσιες εκθέσεις τους που υποβλήθηκαν ως την 1η Μαΐου στην Securities and Exchange Commission ότι η επιβολή κανόνων στην Τεχνητή Νοημοσύνη αποτελεί κίνδυνο για την επιχείρησή τους.
Και ο αριθμός των εταιρειών του Fortune 500 που κατέταξαν την Τεχνητή Νοημοσύνη ως παράγοντα κινδύνου αυξήθηκε σχεδόν κατά 500% μεταξύ 2022 και 2024, σύμφωνα με τα δεδομένα της Arize.
Σε αυτές τις ετήσιες εκθέσεις, οι εταιρείες ανέφεραν κόστη που θα μπορούσαν να προκύψουν από τη συμμόρφωση με τους νέους νόμους, τις κυρώσεις που θα μπορούσαν να προκύψουν από την παραβίασή τους ή κανόνες που θα μπορούσαν να επιβραδύνουν την ανάπτυξη της Τεχνητής Νοημοσύνης.
Ωστόσο, για να είμαστε σαφείς, δεν λένε απαραίτητα ότι αντιτίθενται στους νόμους για την Τεχνητή Νοημοσύνη. Αντίθετα, η ανησυχία είναι ότι δεν είναι σαφές πώς θα μοιάζουν αυτοί οι νόμοι, πώς θα επιβάλλονται και εάν αυτοί οι κανόνες θα εφαρμοστούν από όλους. Το νομοθετικό σώμα της Καλιφόρνια, για παράδειγμα, μόλις ψήφισε το πρώτο νομοσχέδιο για την Τεχνητή Νοημοσύνη σε πολιτειακό επίπεδο —αλλά δεν είναι σαφές εάν ο κυβερνήτης Gavin Newsom θα το υπογράψει ή εάν θα ακολουθήσουν και άλλες Πολιτείες.
«Η αβεβαιότητα που δημιουργείται από ένα εξελισσόμενο ρυθμιστικό τοπίο παρουσιάζει ξεκάθαρα πραγματικούς κινδύνους και κόστος συμμόρφωσης για τις επιχειρήσεις που βασίζονται σε συστήματα Τεχνητής Νοημοσύνης για τα πάντα, από τη μείωση της απάτης των πιστωτικών καρτών έως τη βελτίωση της φροντίδας ασθενών ή των κλήσεων εξυπηρέτησης πελατών», δήλωσε στο Business Insider ο Jason Lopatecki, Διευθύνων Σύμβουλος της Arize AI σε ένα email. «Δεν ζηλεύω τον νομοθέτη ή τον βοηθό του που προσπαθεί να ασχοληθεί με αυτό που συμβαίνει αυτή τη στιγμή».
Οι ετήσιες εκθέσεις των εταιρειών προειδοποιούν τους επενδυτές για μια μακρά λίστα πιθανών επιχειρηματικών κινδύνων, από συγκεκριμένα ζητήματα, όπως ένα ακόμα κύμα COVID-19, έως γενικότερα ζητήματα, όπως οι πιθανότητες επιθέσεων στον κυβερνοχώρο ή κακοκαιρίες. Πλέον, οι κανονισμοί Τεχνητής Νοημοσύνης περιλαμβάνονται σε αυτήν τη λίστα, συμπεριλαμβανομένου του κόστους παρακολούθησης των νέων κανόνων.
Η Meta, για παράδειγμα, ανέφερε την Τεχνητή Νοημοσύνη 11 φορές στην ετήσια έκθεσή της για το 2022 και 39 φορές το 2023. Η εταιρεία αφιέρωσε μια ολόκληρη σελίδα στην ετήσια έκθεσή της για το 2023 στους κινδύνους των δικών της πρωτοβουλιών Τεχνητής Νοημοσύνης, συμπεριλαμβανομένων των κανονισμών. Ο τεχνολογικός γίγαντας είπε ότι «δεν είναι δυνατό να προβλεφθούν όλοι οι κίνδυνοι που σχετίζονται με τη χρήση της AI», συμπεριλαμβανομένου του τρόπου με τον οποίο οι ρυθμίσεις θα επηρεάσουν την εταιρεία.
Η Motorola Solutions ανέφερε στην ετήσια έκθεσή της ότι η συμμόρφωση με τους κανονισμούς AI «μπορεί να είναι επαχθής και δαπανηρή και μπορεί να είναι ασυνεπής από δικαιοδοσία σε δικαιοδοσία, αυξάνοντας περαιτέρω το κόστος συμμόρφωσης και τον κίνδυνο ευθύνης».
«Δεν είναι επίσης σαφές πώς θα ισχύουν ή θα εφαρμοστούν οι υφιστάμενοι και μελλοντικοί νόμοι και κανονισμοί που διέπουν ζητήματα όπως η Τεχνητή Νοημοσύνη, τα προϊόντα με δυνατότητα AI, τα βιομετρικά στοιχεία και άλλα αναλυτικά στοιχεία βίντεο σε σχέση με τα προϊόντα και τις υπηρεσίες που πουλάμε», έγραψε η εταιρεία.
Η NetApp, μια εταιρεία υποδομής δεδομένων, δήλωσε στην ετήσια έκθεσή της ότι στοχεύει να «χρησιμοποιήσει την Τεχνητή Νοημοσύνη υπεύθυνα», αλλά ότι μπορεί να «αποτύχει στον εντοπισμό ή την επίλυση προβλημάτων πριν προκύψουν». Η εταιρεία πρόσθεσε ότι οι κανονισμοί που θα επιβραδύνουν την υιοθέτηση της τεχνητής νοημοσύνης θα μπορούσαν να είναι κακοί για την επιχείρησή της.
«Στο βαθμό που η ρύθμιση καθυστερεί ή εμποδίζει ουσιαστικά την υιοθέτηση της Τεχνητής Νοημοσύνης, η ζήτηση για τα προϊόντα μας ενδέχεται να μην ανταποκρίνεται στις προβλέψεις μας», έγραψε η εταιρεία.
Ο George Kurian, Διευθύνων Σύμβουλος της NetApp, είπε στη Wall Street Journal ότι ενθαρρύνει τη ρύθμιση της AI. «Χρειαζόμαστε έναν συνδυασμό αυτορρύθμισης της βιομηχανίας και των καταναλωτών, καθώς και επίσημη ρύθμιση», είπε ο Kurian στο δημοσίευμα. «Εάν η ρύθμιση επικεντρώνεται στην παροχή δυνατότητας της σίγουρης χρήσης της Τεχνητής Νοημοσύνης, μπορεί να είναι ευλογία».