Έρχονται στρατοί δολοφόνων…ρομπότ!

Φανταστείτε έναν στρατό από ρομπότ δολοφόνους ικανούς να σας εντοπίσουν και να σας βγάλουν έξω -όλα αυτά χωρίς καμία επίβλεψη από ανθρώπους που χειρίζονται.
Αυτό μπορεί να ακούγεται σαν κάτι εκτός επιστημονικής φαντασίας, αλλά ένας κορυφαίος ειδικός στην επιστήμη των υπολογιστών ανησυχεί ότι τέτοια «φονικά αυτόνομα οπλικά συστήματα» μπορεί σύντομα να γίνουν επιστημονικά δεδομένα.
«Οι τεχνολογίες έχουν φτάσει σε ένα σημείο στο οποίο η ανάπτυξη τέτοιων συστημάτων είναι – πρακτικά αν όχι νομικά – εφικτή μέσα σε χρόνια, όχι δεκαετίες», έγραψε ο Δρ Stuart Russell, καθηγητής επιστήμης υπολογιστών και μηχανικής στο Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϋ.
“Παρά τα όρια που επιβάλλονται από τη φυσική, μπορεί κανείς να περιμένει πλατφόρμες που θα αναπτυχθούν σε εκατομμύρια, η ευελιξία και η φονικότητα των οποίων θα αφήσουν τους ανθρώπους εντελώς ανυπεράσπιστους. Αυτό δεν είναι ένα επιθυμητό μέλλον.”
Αλλά αυτό είναι μόνο ένα από τα πολλά προηγμένα ρομπότ που θα σας κάνουν να σταματήσετε όταν συνειδητοποιήσετε πόσο θανατηφόρες θα ήταν οι οπλισμένες εκδόσεις τους
Αυτό το ρομπότ “Raptor” που μοιάζει με velociraptor, αναπτύχθηκε στην Κορέα, μπορεί να τρέξει πιο γρήγορα από τον Usain Bolt
Αυτοί οι «νανοτετράτροχοι» του Πανεπιστημίου της Πενσυλβάνια μπορούν να συμμετάσχουν σε πολύπλοκα κοινωνικά κινήματα, όπως το σμήνος και ο σχηματισμός προτύπων
Ο Russell δεν καταδικάζει όλες τις εκδηλώσεις τεχνητά ευφυών ρομπότ. Απλώς δεν πιστεύει ότι η απόφαση να σκοτώσει πρέπει να είναι αποκλειστικά στα χέρια μιας μηχανής.
«Ιδανικά θα έπρεπε να έχουμε μια συνθήκη που θα απαγορεύει την ανάπτυξη των θανατηφόρων αυτόνομων οπλικών συστημάτων», είπε στη Huffington Post σε ένα email. Καλεί τις επαγγελματικές ενώσεις να υιοθετήσουν επίσημες πολιτικές για την αντιμετώπιση των προόδων που θα μπορούσαν να οδηγήσουν σε επικίνδυνα ρομπότ.
«Θα πρέπει να κατανοήσουμε τους τρόπους με τους οποίους η γνώση μπορεί να χρησιμοποιηθεί για κακό και να κάνουμε ό,τι καλύτερο μπορούμε για να το αποτρέψουμε», είπε στο email. «Αν και δεν συμβαίνει επί του παρόντος, σύντομα θα γίνει η περίπτωση ότι η «ασφαλής και ωφέλιμη» A.I. είναι απλώς ένα εγγενές μέρος του πεδίου, όπως… το «το να μην πέφτει» είναι ένα εγγενές μέρος του σχεδιασμού της γέφυρας. “
Και ο Russell δεν είναι ο μόνος που ζητά τέτοια εποπτεία. Τον περασμένο Απρίλιο, η Human Rights Watch δημοσίευσε μια έκθεση που ενθαρρύνει τους υπεύθυνους χάραξης πολιτικής να απαγορεύσουν την ανάπτυξη και την παραγωγή αυτόνομων όπλων.
«Ένα πλήρως αυτόνομο όπλο θα μπορούσε να διαπράξει πράξεις που θα έφταναν στο επίπεδο των εγκλημάτων πολέμου εάν κάποιος τα διέπραξε, αλλά τα θύματα δεν θα έβλεπαν κανέναν να τιμωρείται για αυτά τα εγκλήματα», δήλωσε η Δρ. Bonnie Docherty, ανώτερη ερευνήτρια τμήματος όπλων στην οργάνωση και επικεφαλής συγγραφέας της έκθεσης, σε γραπτή δήλωση. «Το να αποκαλούμε τέτοιες πράξεις «ατύχημα» ή «πρόβλημα» θα έκανε ασήμαντη τη θανατηφόρα βλάβη που θα μπορούσαν να προκαλέσουν».