April 17, 2015
Mark Hay
Το κείμενο δημοσιεύτηκε αρχικά στο VICE UK
Πριν λίγες μέρες, το Human Rights Watch και το Harvard Law School εξέδωσαν μια έκθεση 38 σελίδων, ζητώντας να τεθεί σε ισχύ μία παγκόσμια απαγόρευση για την ανάπτυξη και τη χρησιμοποίηση των «killer robots» (φονικών ρομπότ), όπως τα αποκαλούν, τα οποία είναι γνωστά και ως πλήρως αυτόνομα οπλικά συστήματα.
Η έκθεση εκδόθηκε μερικές ημέρες πριν τη σύγκλιση του Inhuman Weapons Convention (Συνέδριο για τον Απάνθρωπο Οπλισμό), στις 13 Απριλίου, στη Γενεύη, όπου συζητήθηκε το πώς πρέπει να αντιμετωπιστεί το - πολύ κοντινό - σενάριο της ύπαρξης θανατηφόρων ρομπότ, τα οποία θα λειτουργούν χωρίς καμία ανθρώπινη παρέμβαση.
Αυτό που θέλουν οι συντάκτες της προαναφερθείσας έκθεσης είναι, τα Ηνωμένα Έθνη, να θεσπίσουν συμβάσεις, οι οποίες θα απαγορεύσουν την ανάπτυξη και χρήση τέτοιων τεχνολογιών σε ενδιαφερόμενα κράτη, καθώς και να προτρέψουν τις εγχώριες κυβερνήσεις να θεσπίσουν παρόμοιους νόμους, ώστε να αποτρέψουν ένα ιδιαίτερα ζοφερό μέλλον.
Τα «φονικά ρομπότ», τα οποία αναφέρονται στην έκθεση, βρίσκονται κάπου, μεταξύ των υπαρχόντων drones και του Terminator.
Εκεί που τα υπάρχοντα μη επανδρωμένα ρομποτικά συστήματα στηρίζονται στον άνθρωπο, μιας και εκείνος τραβάει τη σκανδάλη (διατηρώντας έτσι το ανθρώπινο στοιχείο στο τιμόνι), τα πλήρως αυτοματοποιημένα οπλικά συστήματα θα μπορούν να εντοπίζουν, να επιλέγουν και να εκτελούν τους δικούς τους στόχους, με μία απλή ανθρώπινη εποπτεία ή ένα ανθρώπινο βέτο, στην καλύτερη περίπτωση.
Ή χωρίς την παραμικρή ανθρώπινη παρέμβαση, στη χειρότερη. Μερικοί ειδικοί, υποστηρίζουν ότι ακόμα και αν υπήρχε η δυνατότητα ανθρώπινης παρέμβασης και ακύρωσης στόχου, σε αυτά τα συστήματα, θα ήταν μάλλον μάταιη, μιας και η ταχύτητα λήψης αποφάσεων, αυτών των συστημάτων, θα ήταν αστραπιαία.
«Ένας άνθρωπος μπορεί να έχει την δυνατότητα να ασκήσει βέτο, αλλά είναι ένα βέτο που πρέπει να ασκήσεις σε μισό δευτερόλεπτο», είπε ο Peter Singer, του Brooklings Institute, σε μία συζήτησή του με το The Verge.
«Τέτοιου είδους ρομπότ, ουσιαστικά, μπορούν να επαναπροσδιορίσουν τον ρόλο των όπλων, στις ένοπλες διαμάχες ανά τον πλανήτη», αναφέρει η έκθεση.
«Σύμφωνα με κάποιες νομικές αναλύσεις, θα είναι πιο κοντά στην έννοια ενός στρατιώτη, παρά σε αυτήν ενός άψυχου όπλου. Από την άλλη, τα πλήρως αυτόνομα οπλικά συστήματα υπολείπονται, κατά πολύ, των ανθρώπων και, άρα, δεν μπορούν να ελεγχθούν ή να τιμωρηθούν».
Κάποιοι υποστηρίζουν πως αυτή η έκθεση, καθώς και άλλες εκθέσεις, που έχει βγάλει το Campaign to Stop Killer Robots (μία συνεργασία του HRW και, περίπου, 50 ακόμα μη κυβερνητικών οργανισμών), υπερβάλουν για ένα καθαρά νομικό ζήτημα, ξεθάβοντας εικόνες των Cylons ή του Hal 9000, σε μία προσπάθεια να προκαλέσουν αντιδράσεις.
Επιπλέον, λένε πως η τεχνολογία που συζητείται, απέχει πολύ ακόμη από το να είναι έτοιμη προς χρήση και, άρα, δεν υπάρχει λόγος για απαγορεύσεις, αν και δέχονται ότι υπάρχει ανάγκη για κάποια μορφή νομοθεσίας.
Όμως, οι υποστηρικτές των ελέγχων, πάνω στην ανάπτυξη των αυτόνομων ρομποτικών συστημάτων, λένε πως είναι μία πραγματικότητα που είναι πολύ πιο κοντά μας από ότι πιστεύουμε.
Η Κίνα, η Γερμανία, η Ινδία, το Ισραήλ, η Νότιος Κορέα, η Ρωσία, το Ηνωμένο Βασίλειο και οι Ηνωμένες Πολιτείες έχουν εμπλακεί τα τελευταία χρόνια στην ανάπτυξη οπλικών συστημάτων με τεχνητή νοημοσύνη.
Μάλιστα, το 2013, το Υπουργείο Αμύνης των Ηνωμένων Πολιτειών εξέδωσε μια οδηγία σχετικά με την επιθυμητή ανάπτυξη των εν λόγω συστημάτων.
Τόσο αυτοί, όσο και μια πληθώρα ερευνητών από πολλές χώρες, έχουν αναπτύξει μία σειρά από αυτόνομα μαχητικά συστήματα, κάποια εκ των οποίων απαιτούν ανθρώπινο χειρισμό, αλλά σε καθαρά βοηθητικό ρόλο, υπονοώντας ουσιαστικά ότι τα πλήρως αυτόνομα συστήματα μπορεί να είναι μία πραγματικότητα, σε έναν χρονικό ορίζοντα από 5 μέχρι 30 χρόνων.
Εντούτοις, αν και η καμπάνια εναντίον αυτών των οπλικών συστημάτων έχει βάσεις, οι προβληματισμοί εύλογοι και οι άνθρωποι που τις εκφράζουν καλά πληροφορημένοι - και όχι κάποιοι τυχάρπαστοι οπαδοί των συνομωσιών συνομωσίας - το αποτέλεσμα της προσπάθειάς τους είναι μηδαμινό.
Αν και το CSKR υπάρχει μόλις από το 2013, υπάρχουν ακτιβιστές που κυνηγούν αυτήν την ιστορία, από τη δεκαετία του '80. Οι προσπάθειές τους, ναι μεν, έχουν προκαλέσει την προσοχή των μέσων ενημέρωσης, αλλά, σε επίπεδο Ηνωμένων Εθνών, δεν έχουν καταφέρει τίποτα.
Μέρος σε αυτήν την αποτυχία τους, σίγουρα, έχει παίξει το γεγονός ότι αυτά τα ρομποτικά συστήματα έχουν ιδιαίτερα εύγλωττους υποστηρικτές, οι οποίοι υποστηρίζουν ότι, μέσω αυτής της λύσης, θα μπορούσαν να μειωθούν τα εγκλήματα πολέμου.
«Υπάρχουν διάφοροι τρόποι που θα μπορούσαν να χρησιμοποιηθούν, αποδεικνύοντας πόσο πιο εύστοχα είναι από τους ανθρώπους», είπε πρόσφατα, στο CBC, ο Steven Groves του Heritage Foundation.
«Δεν φοβούνται. Δεν νευριάζουν. Δεν αντιδρούν σε μία κατάσταση με οργή και έχουμε δει τις τραγικές συνέπειες τέτοιων αντιδράσεων, στο Ιράκ και αλλού».
Οι υποστηρικτές λένε, επίσης, ότι πρέπει να σταματήσουμε να τα σκεπτόμαστε ως δολοφονικά μηχανήματα που είναι έτοιμα να ξεφύγουν ανά πάσα στιγμή και να κάνουν ό,τι θέλουν, μιας και θα ελέγχονται από ιδιαίτερα αυστηρούς και αξιόπιστους αλγορίθμους.
Θεωρητικά, το παραπάνω θα επέστρεφε την ευθύνη στα χέρια των ανθρώπινων χειριστών, οι οποίοι θα έπρεπε να εξηγήσουν τις επιλογές τους.
«Μέχρι ένα σημείο, μία τοστιέρα είναι αυτόνομη», λέει ο Ronald Arkin, ένας από τους πλέον θερμούς υποστηρικτές των ρομποτικών συστημάτων, στο The Verge. «Μπορείς να της αναθέσεις να σου ψήσει το ψωμί σου και απλά να φύγεις. Για τέτοιου είδους αυτονομία μιλάμε».
Το 2015, όμως, μπορεί να είναι μία πολύ καλύτερη χρονιά, για τους συντάκτες της έκθεσης, μιας και οι κίνδυνοι της τεχνητής νοημοσύνης έχουν τονιστεί, από γιγαντιαίες προσωπικότητες τους χώρου της τεχνολογίας.
Τον περασμένο Νοέμβριο, ο διάσημος εφευρέτης Elon Musk εξέφρασε τις ανησυχίες του σχετικά με την τεχνητή νοημοσύνη, λέγοντας πως τα αυτόνομα οπλικά συστήματα είναι πιθανό να ξεφύγουν του ελέγχου μας, μέσα σε 5- 10 χρόνια από τη στιγμή ενεργοποίησής τους.
Τον Γενάρη, τόσο ο Bill Gates όσο και ο Stephen Hawking, μεταξύ άλλων, εξέφρασαν τους ίδιους φόβους, λέγοντας πως η αξιοπιστία και ο έλεγχος, για τα οποία κάνει λόγο ο Arkin, δεν θα μπορούσαν να εξασκηθούν πάνω σε μία πλήρως λειτουργική τεχνητή νοημοσύνη, πόσω μάλλον πάνω σε φονικά ρομπότ.
Υπάρχουν, βέβαια, άφθονοι άλλοι άγνωστοι παράγοντες σχετικά με αυτά τα συστήματα και το ενεργό ενδιαφέρον στρατιωτικών θεσμών, για την ανάπτυξή τους, μάλλον απομακρύνει την πιθανότητα θέσπισης της οποιαδήποτε ουσιαστικής απαγόρευσης.
Ο Arkin όμως, καθώς και άλλοι υποστηρικτές των συστημάτων, έχουν εκφράσει τη διάθεσή τους για τη σύσταση ενός moratorium, σχετικά με την έρευνα που έχει γίνει μέχρι στιγμής, πράγμα που αφήνει ανοιχτή την πόρτα για τη θέσπιση νομικών κανόνων, που σχετίζονται με τη χρήση τους.
Ίσως, αυτή τελικά είναι η μεγάλη νίκη, που μπορεί κανείς να περιμένει στο πεδίο των Ηνωμένων Εθνών, φέτος. Και, αν όχι φέτος, τότε σύντομα. Ας ελπίσουμε, πάντως, όλο αυτό να γίνει πριν την επανάσταση των αυριανών ρομποτικών μας ηγεμόνων.
http://www.vice.com
σχετικά:
Η άνοδος των ρομπότ: Η τεχνητή νοημοσύνη νέα απειλή για την ανθρωπότητα
Τεχνητή Νοημοσύνη: Ίσως το χειρότερο λάθος της ιστορίας, του Στίβεν Χόκινγκ
Καλώς τα μας!(Και περαστικά δεν θα 'ναι πάντως) Ο εφιάλτης της τεχνητής (και δη "αυτοεξελισσόμενης - με γεωμετρική πρόοδο υποθέτω") νοημοσύνης είναι ήδη εδώ...Ρομποτικό μυαλό αποκτά δεξιότητες σερφάροντας στο διαδίκτυο...και εγεννήθη Matrix?
Τεχνητή Νοημοσύνη: Το τεστ του... Alan Turing
Η κυριαρχία των μηχανών: Τεχνητή νοημοσύνη και το τέλος της ανθρώπινης κυριαρχίας
Η τεχνητή νοημοσύνη «το μεγαλύτερο γεγονός, ίσως όμως το τελευταίο»
“Η Τεχνητή Νοημοσύνη δυνητικά πιο επικίνδυνη από τα πυρηνικά” Υπολογιστής ξεγέλασε τους ανακριτές του και τους έκανε να πιστέψουν πως είναι 13χρονο αγόρι (η "τεχνητή νοημοσύνη" είναι ήδη εδώ;)
Δείτε επίσης τις "έξυπνες" σφαίρες http://www.huffingtonpost.gr/2015/04/29/exacto_n_7167646.html