Κυριακή 25 Αυγούστου 2013

Ανάλυση του Foreign Affairs για τα ρομπότ δολοφόνους!!!


Προσοχή στα ρομπότ δολοφόνους
Πώς εξελίσσεται η συζήτηση για τα αυτόνομα όπλα
Charli Carpenter
(Πηγή : http://foreignaffairs.gr)
Όλο και περισσότερο, οι μηχανές διεξάγουν πολεμικές επιχειρήσεις. Μη επανδρωμένα αεροσκάφη κάνουν αναγνωριστικές πτήσεις και χρησιμεύουν ως μηχανικά υποζύγια πάνω από αφιλόξενα εδάφη, ενώ άλλα αυτοματοποιημένα συστήματα βοηθούν γιατρούς ή εκτονώνουν εκρηκτικά.
Αλλά όταν πρόκειται για οπλισμένα συστήματα, οι κυβερνήσεις έχουν μέχρι σήμερα διατηρήσει ως χειριστές τους ανθρώπους. Τώρα, στρατοί σε όλο τον κόσμο προχωρούν στην ανάπτυξη ενόπλων αυτόνομων ρομπότ με ικανότητα να χρησιμοποιούν θανατηφόρα ισχύ από μόνα τους.
Σύμφωνα με μια έκθεση των Ηνωμένων Εθνών [1], το Ισραήλ, η Νότια Κορέα, το Ηνωμένο Βασίλειο και οι Ηνωμένες Πολιτείες έχουν αναπτύξει οπλικά συστήματα με διάφορους βαθμούς αυτονομίας [2]. Από το 2010, για παράδειγμα, ένοπλα ρομπότ φρουροί με αυτόνομους αισθητήρες και συστήματα στόχευσης κάνουν περιπολίες στην αποστρατιωτικοποιημένη ζώνη της Νότιας Κορέας. Αν και οι άνθρωποι είναι ακόμα πίσω από τα χειριστήρια, το στρατιωτικό δόγμα αφήνει ανοικτό το ενδεχόμενο για πλήρως αυτόνομα όπλα στο μέλλον. Η Οδηγία του Αμερικανικού Υπουργείου Άμυνας για τα Αυτόνομα Όπλα [3] επιτρέπει στους υφυπουργούς Άμυνας, σε ορισμένες περιπτώσεις, να παρακάμψουν τον κανόνα ότι τα όπλα παραμένουν υπό νοήμονα ανθρώπινο έλεγχο. Και οι μηχανές εξαπλώνονται: Η Ινδία είναι η τελευταία χώρα που ξεκινά ανοιχτά ένα πρόγραμμα [4] για να αναπτύξει πλήρως αυτόνομους ρομποτικούς στρατιώτες.
Η προοπτική τής σταδιακής ανάθεσης σε μηχανές τής απόφασης για έναν φόνο έχει κάνει έναν αυξανόμενο αριθμό ειδικών της ρομποτικής, ηθικολόγους, και, τώρα, ένα διακρατικό δίκτυο υποστηρικτών τής ανθρώπινης ασφάλειας [5] και κυβερνήσεις να αισθάνονται άβολα. Ανησυχούντες επιστήμονες συγκρότησαν τη Διεθνή Επιτροπή για τον Έλεγχο Ρομποτικών Όπλων (International Committee for Robot Arms Control) το 2009. Το 2012, οι ΜΚΟ άρχισαν να εκφράζουν την ανησυχία τους [6] και το Παρατηρητήριο Ανθρωπίνων Δικαιωμάτων (Human Rights Watch) δημοσίευσε μια έκθεση σχετικά με τους κινδύνους των πλήρως αυτόνομων όπλων. Και τον περασμένο Απρίλιο, η Εκστρατεία για να Σταματήσουν τα Ρομπότ Φονιάδες (Campaign to Stop Killer Robots) [7] ξεκίνησε στα σκαλιά του Κοινοβουλίου στο Λονδίνο. Υιοθετημένη από την νομπελίστα και περιβόητη αγωνίστρια κατά των ναρκών Jody Williams [8], γρήγορα εξελίχθηκε σε μια συμμαχία με πάνω από 30 Μη Κυβερνητικές Οργανώσεις. Ο Οργανισμός Ηνωμένων Εθνών έκτοτε έχει εκδώσει μια έκθεση [9] καλώντας για την επιβολή μορατόριουμ στην ανάπτυξη των θανατηφόρων αυτόνομων ρομπότ.
Αυτό το νέο κίνημα είναι μοναδικό μεταξύ των εκστρατειών αφοπλισμού, δεδομένου ότι οι οργανισμοί πιέζουν εναντίον μιας κατηγορίας όπλων [10] η οποία δεν έχει ακόμη [11] αναπτυχθεί ευρέως ούτε έχει αποδειχθεί ότι μπορεί να προκαλέσει μαζική ανθρωπιστική βλάβη. Οι περισσότερες επιτυχημένες απαγορεύσεις όπλων κατά το παρελθόν έχουν δικαιολογηθεί με το επιχείρημα ότι παραβιάζουν τις αρχές της διακριτότητας [12] ή της αναλογικότητας [13] του δίκαιου πολέμου. Η διακριτότητα προϋποθέτει ότι τα όπλα είναι σε θέση να πλήξουν κυρίως μαχητές. Η αναλογικότητα απαιτεί ότι τα δεινά που προκαλούνται στους μαχόμενους από τα όπλα δεν θα υπερβαίνουν αυτά που θεωρούνται στρατιωτικά αναγκαία. Νάρκες, χημικά όπλα και πυρομαχικά διασποράς απαγορεύθηκαν με επιτυχία, δεδομένου ότι το ανθρωπιστικό κόστος έδειξε ότι δεν θα μπορούσαν να χρησιμοποιηθούν με διακριτό τρόπο. Αλλά, λίγα όπλα έχουν απαγορευτεί προληπτικά με βάση την βλάβη που ίσως να προκαλέσουν, ακριβώς επειδή είναι δύσκολο να γίνει μια τέτοια εκτίμηση υποθετικά. Τα μόνα δύο είδη όπλων που έχουν απαγορευτεί προληπτικά – οι διασπώμενες σφαίρες [14] και τα λέιζερ που τυφλώνουν [15] - τέθηκαν εκτός νόμου αποκλειστικά και μόνο επειδή απέτυχαν στο δεύτερο τεστ: είχαν στόχο να προκαλέσουν «περιττό τραυματισμό».
Στην περίπτωση των αυτόνομων οπλικών συστημάτων, καμιά από τις παραπάνω υποθέσεις δεν είναι τόσο σαφής. Οι ακτιβιστές υποστηρίζουν ότι τα όπλα αυτά δεν διαθέτουν την επίγνωση της κατάστασης [16] για να συμμορφωθούν με το ανθρωπιστικό δίκαιο, θα μπορούσαν να αυξήσουν τα επίπεδα των ένοπλων συγκρούσεων [17] δεδομένης της ευκολίας χρήσης τους, και θα μπορούσαν να υπονομεύσουν την υφιστάμενη νομοθεσία περί πολέμου [9] με το να περιορίσουν τον καταλογισμό για τα λάθη. Αλλά οι υποστηρικτές των αυτόνομων συστημάτων υποστηρίζουν ότι οι ανησυχίες αυτές είναι υποθετικές. Μέχρις ότου αναπτυχθούν τα όπλα, υποστηρίζουν, κανείς δεν μπορεί να γνωρίζει με βεβαιότητα τι ζημιά θα προκαλέσουν στην πραγματικότητα. Οι υποστηρικτές τους αναμένουν ότι οι διασφαλίσεις θα είναι επαρκείς και ότι οι ρομποτικοί στρατιώτες θα μπορούσαν να κάνουν κάποιο καλό [18], δεδομένου ότι με την χρήση τους θα μπορούσαν να προστατεύσουν τα ανθρώπινα στρατεύματα - και ίσως να διαπράξουν λιγότερα εγκλήματα πολέμου εναντίον πολιτών (στμ: σε σύγκριση με τους κανονικούς στρατιώτες). Επιπλέον, οι υποστηρικτές τους βλέπουν τις τάσεις αυτές ως αναπόφευκτες [19], θεωρώντας ότι οι Συμφωνίες Απαγόρευσης [Όπλων} απλά δεν λειτουργούν [20].
Και τα δύο στρατόπεδα διαθέτουν περισσότερες εικασίες παρά γεγονότα. Υπάρχουν λίγες σαφείς αποδείξεις ότι η αυξανόμενη απόσταση των ανθρώπινων μαχητών από τα πεδία των μαχών συμβάλλει στην αύξηση των διεθνών ένοπλων συγκρούσεων, οι οποίες έχουν μειωθεί γενικά [21] μετά το τέλος του Β’ Παγκοσμίου Πολέμου. Αλλά ούτε υπάρχουν στοιχεία που να υποστηρίζουν την ιδέα ότι τα αυτόνομα όπλα θα ήταν κατ’ ανάγκην πιο ανθρωπιστικά από τους ανθρώπους. Τέτοιες εικασίες συχνά βασίζονται σε ανέκδοτα [22] περί της ανθρώπινης τάσης για εγκλήματα πολέμου, αλλά παραβλέπουν μελέτες για την συνολική συμμόρφωση των στρατιωτών με τις Συμβάσεις της Γενεύης, οι οποίες δείχνουν ότι οι ένοπλες ομάδες γενικά όντως ακολουθούν τους κανόνες [23], όπως το να μην στοχεύουν αμάχους, δεδομένης της δέουσας δυναμικής των μικρών μονάδων και των νομιμοφρόνων διαταγών από την κορυφή.
Το μεγαλύτερο πρόβλημα δεν είναι ότι κάποιες αξιώσεις σε αυτή τη συζήτηση είναι ανοικτές απέναντι σε ερωτήματα βασισμένα σε υποθέσεις, αλλά ότι τόσο πολλές από αυτές απλά δεν μπορούν να αξιολογηθούν εμπειρικά, δεδομένου ότι δεν υπάρχει κανένα στοιχείο ή προηγούμενο με το οποίο να υπολογιστεί η διακριτότητα και η αναλογικότητα έναντι της στρατιωτικής αναγκαιότητας [24]. Ίσως η χρήση των ενόπλων ρομπότ θα μπορούσε να σώσει τις ζωές κάποιων στρατευμάτων. Αλλά, αν χρήση τους υπονόμευε το υφιστάμενο ανθρωπιστικό δίκαιο, θα μπορούσε να αυξήσει τη ζημιά όχι μόνο για τα στρατεύματα αλλά και για τους πολίτες, με την κατάργηση των κανόνων που τους προστατεύουν από τα δεινά του πολέμου. Θα καταφέρουν οι μηχανικοί να δημιουργήσουν κάποια μέρα μια μηχανή που θα διακρίνει ένα παιδί που κρατάει ένα χωνάκι παγωτό από ένα παιδί που κρατά ένα Καλάσνικοφ, ή πολύ περισσότερο έναν στρατιώτη που προσπαθεί να παραδοθεί από έναν που είναι έτοιμος να πυροβολήσει; Αν όχι, ίσως οι μηχανές να είναι σε θέση να συμμορφωθούν με τους πολεμικούς νόμους σε ελάχιστες, περιορισμένες συνθήκες όπως στην έρημο ή στις ναυμαχίες όπου οι άμαχοι δεν είναι παρόντες; Ακόμη και αν είναι έτσι, δεν είναι σαφές πόσο χρήσιμο θα είναι δεδομένων των σημερινών δυνατοτήτων στις μάχες, όπου οι στρατοί συνήθως πολεμούν σε αστικό περιβάλλον και εμπλέκονται σε αστυνομικές επιχειρήσεις. Όλοι αυτοί οι παράγοντες - το ανθρωπιστικό κόστος, τα στρατιωτικά οφέλη, με τι θα μοιάζουν οι πόλεμοι στο μέλλον - κάνουν δύσκολο στους ενδιαφερόμενους φορείς το να σταθμίσουν επαρκώς τους κινδύνους και τα οφέλη τής μετάβασης προς αυτή την κατεύθυνση.
ΧΑΛΙΝΑΓΩΓΗΣΤΕ ΤΑ ΡΟΜΠΟΤ
Έτσι, αντί να στηρίζεται στις αρχές της διακριτότητας και της αναλογικότητας, όπως με τις προηγούμενες εκστρατείες για την απαγόρευση όπλων, η συζήτηση για τις θανατηφόρες μηχανές συγκλίνει γύρω από δύο πολύ διαφορετικά ερωτήματα. Πρώτον, σε καταστάσεις αβεβαιότητας, το βάρος έγκειται στις κυβερνήσεις για να αποδείξουν ότι οι αναδυόμενες τεχνολογίες πληρούν τα ανθρωπιστικά πρότυπα ή στην παγκόσμια κοινωνία των πολιτών για να αποδείξει ότι δεν το κάνουν; Και δεύτερον, ακόμη και αν τα αυτόνομα συστήματα θα μπορούσαν μια ημέρα να αποδειχθούν ότι είναι χρήσιμα και νόμιμα σε πρακτικό επίπεδο, διακυβεύεται ή όχι μια βαθύτερη ηθική αρχή σχετικά με την ανάθεση θεμάτων ζωής ή θανάτου σε μηχανές;
Το στρατόπεδο υπέρ του αφοπλισμού υποστηρίζει «ναι» και στα δύο. Οι αισιόδοξοι περί την τεχνολογία ισχυρίζονται ότι «όχι». Σε κάποιο βαθμό αυτά είναι ζητήματα αξιών, αλλά το καθένα μπορεί επίσης να αξιολογηθεί εμπειρικά από τις κοινωνικές πραγματικότητες του υπάρχοντος διεθνούς κανονιστικού πλαισίου. Σε κάθε περίπτωση, όσοι εφιστούν την προσοχή ενάντια στην ανεξέλεγκτη ανάπτυξη της μη επανδρωμένης στρατιωτικής τεχνολογίας πατάνε σε σταθερότερο έδαφος.
Η έννοια της «αρχής της πρόληψης» είναι γνωστή στους επιστημονικούς κύκλους, και έχει μια μακρά ιστορία στο διεθνές δίκαιο που παράγουν οι διεθνείς συμφωνίες. Αναφέρει ότι όταν μια ενέργεια ή μια πολιτική έχει ένα πιθανό αλλά αναπόδεικτο κίνδυνο για δημόσια βλάβη, το βάρος της απόδειξης ότι δεν είναι επιβλαβές πέφτει σε όσους πραγματοποιούν την δράση. Προερχόμενο από περιβαλλοντικά ζητήματα, είναι πλέον υποχρεωτικό δίκαιο στην Ευρωπαϊκή Ένωση και έχει εφαρμοστεί επίσης στον αφοπλισμό. Σε προηγούμενες εκστρατείες απαγόρευσης όπλων, η παγκόσμια συναίνεση ήταν να τεθεί το βάρος της απόδειξης στις κυβερνήσεις [25] ώστε να αποδείξουν ότι τα νέα όπλα τους συμμορφώνονται με το ανθρωπιστικό δίκαιο. Η αρχή αυτή κατοχυρώνεται στο άρθρο 36 του Πρώτου Πρόσθετου Πρωτοκόλλου της Σύμβασης της Γενεύης, το οποίο απαιτεί από τις κυβερνήσεις [26] να εξετάζουν τα νέα όπλα ότι συμμορφώνονται με τους κανόνες του πολέμου. Οι Ηνωμένες Πολιτείες δεν έχουν υπογράψει το πρώτο πρόσθετο πρωτόκολλο. Παρ’ όλα αυτά, η δύναμη αυτού του ευρέως διαδεδομένου «κανόνα πρόληψης» έχει ήδη συμβάλει στην διαμόρφωση της διπλωματικής συζήτησης γύρω από τα αυτόνομα όπλα και την λήψη αποφάσεων από τις κυβερνήσεις. Σε μια πρόσφατη συνεδρίαση του Συμβουλίου του ΟΗΕ για τα Ανθρώπινα Δικαιώματα στην οποία συμμετείχαν δεκάδες κράτη, οι περισσότεροι εκπρόσωποι των χωρών εξέφρασαν την ανησυχία τους για τα αυτόνομα όπλα. Αρκετοί εξέφρασαν υποστήριξη σε μια γενική απαγόρευση, αλλά μόνο ένα, το Ηνωμένο Βασίλειο, υποστήριξε ότι μια απαγόρευση ήταν περιττή.
Εκτός από την επιτυχή διαμόρφωση των επιχειρημάτων τους γύρω από ένα τέτοιο προηγούμενο, οι ακτιβιστές έχουν χρησιμοποιήσει ένα νομικό επιχείρημα που παρακάμπτει τις άλυτες απορίες σχετικά με το αν αυτά τα όπλα θα μπορούσαν να εκπληρώσουν τις προϋποθέσεις για τις αρχές της διακριτότητας και της αναλογικότητας. Με απλά λόγια, έχουν μετατοπίσει την συζήτηση για το αν η όλη ιδέα των αυτοματοποιημένων όπλων είναι αντίθετη προς τις αρχές της ανθρωπότητας. Το διεθνές ανθρωπιστικό δίκαιο ορίζει ότι οι λεγόμενες επιταγές της δημόσιας συνείδησης θα πρέπει να χρησιμοποιηθούν για να μετρηθεί τι είναι σκόπιμο σε στρατιωτικές υποθέσεις σε περιπτώσεις όπως αυτή, όπου τα υπάρχοντα νομικά πλαίσια παρέχουν ανεπαρκή καθοδήγηση και οι ανησυχίες που ανέκυψαν δεν έχουν ακόμη πραγματωθεί.
Οι ακτιβιστές κατά των αυτόνομων όπλων βασίζουν ένα μεγάλο μέρος των ενεργειών τους στο επιχείρημα που περιγράφεται στη Ρήτρα Martens, η οποία εισήχθη στη Σύμβαση της Χάγης ως ένα είδος εφεδρικού σχεδίου για τις περιπτώσεις που δεν προβλέφθηκαν από τους συντάκτες της. Τονίζοντας τη σημασία της κοινής γνώμης στη νομοθεσία για νέα όπλα, το απόσπασμα έχει ως εξής [27]: «Έως ότου εκδοθεί ένας πιο πλήρης κώδικας πολεμικών νόμων, τα Υψηλά Συμβαλλόμενα Μέρη θεωρούν ότι είναι σωστό να δηλώσουν ότι σε υποθέσεις που δεν περιλαμβάνονται στους κανονισμούς που υιοθετούνται από αυτούς, οι πληθυσμοί και τα εμπόλεμα μέρη παραμένουν υπό την προστασία και την εξουσία των αρχών του διεθνούς δικαίου, όπως αυτές προκύπτουν από τις καθιερωμένες πράξεις μεταξύ πολιτισμένων εθνών, από τους ανθρωπιστικούς νόμους και τις απαιτήσεις της δημόσιας συνείδησης». Το Παρατηρητήριο των Ανθρωπίνων Δικαιωμάτων [28] επικαλέστηκε σαφώς τη ρήτρα τον περασμένο Νοέμβριο στην έκθεσή του Losing Humanity [29], η οποία κάλεσε τα κράτη να υποστηρίξουν μια προληπτική απαγόρευση σχετικά με την ανάπτυξη και την εξάπλωση των πλήρως αυτόνομων όπλων.
Νέα στοιχεία ερευνών [30] από το Πανεπιστήμιο της Μασαχουσέτης επιβεβαιώνουν ένα γενικό επίπεδο ανησυχίας μεταξύ των Αμερικανών πολιτών σχετικά την ανάθεση σε μηχανές τής απόφασης να σκοτώσουν. Το 55% των Αμερικανών που ρωτήθηκαν εξέφρασαν την αντίθεσή τους στα αυτόνομα όπλα (σχεδόν 40% ήταν « σθεναρά αντίθετοι») και η πλειοψηφία (53%) εξέφρασε την υποστήριξή της για μια νέα καμπάνια υπέρ της απαγόρευσης τέτοιων όπλων. Από αυτούς που δεν είχαν άμεση αντίθεση, σχεδόν το 20% ήταν «αβέβαιοι», με πολλούς να εκφράζουν επιφυλάξεις με μη ολοκληρωμένα σχόλια. Αυτό επιβεβαιώνει την ιδέα της «αρχής της πρόληψης» για την αντιμετώπιση της τεχνολογικής αβεβαιότητας. Μόνο το 10% των Αμερικανών υποστηρίζουν σταθερά την ανάπτυξη των αυτόνομων όπλων, ένα εύρημα που ήταν σταθερό σε όλο το πολιτικό φάσμα [31].
Η ισχυρότερη αντίθεση προήλθε από την άκρα δεξιά και την άκρα αριστερά, το υψηλό μορφωτικό επίπεδο, τους καλά ενημερωμένους και από μέλη των ενόπλων δυνάμεων.
Οι μη ολοκληρωμένες απαντήσεις στην έρευνα μεταφέρουν επίσης [32] μια αίσθηση ότι οι αποφάσεις των θανατηφόρων μηχανών θα παραβιάζουν βασικές ηθικές αρχές, τις οποίες οι συμμετέχοντες στην έρευνα εξέφρασαν ως ανησυχίες αφορούσες σε θέματα συνείδησης. Η πιο συχνή εξήγηση για την απόρριψη των αυτόνομων όπλων στα δεδομένα της έρευνας ήταν μια αίσθηση ότι οι μηχανές δεν μπορούν να εξισώνονται με τους ανθρώπους στην εκτίμηση των καταστάσεων. Πολλοί από αυτούς τόνισαν τη σημασία της λογοδοσίας, της ανθρώπινης συναίσθησης και την πιθανότητα μηχανικού λάθους. Ένας σημαντικός αριθμός των απαντήσεων αναφέρθηκαν στην ιδέα ως «τρομακτική», «εκφοβιστική» ή «αποκρουστική». Ως εκ τούτου η Εκστρατεία για την Απαγόρευση των Ρομπότ Φονιάδων [7] μπορεί να αξιοποιήσει τον βαθύτερο φόβο των πολιτών για την ανάθεση στις μηχανές τής απόφασης να σκοτώσουν. Αυτό και μόνο μπορεί να είναι αρκετό για να ενισχύσει τη νομική θέση τους και να διατηρήσει την απαραίτητη πίεση στους άμεσα ενδιαφερόμενους για να επιτευχθεί μια Συνθήκη κατά της χρήσης των αυτόνομων όπλων.
ΟΙ ΚΙΝΔΥΝΟΙ ΤΗΣ ΚΑΙΝΟΤΟΜΙΑΣ
Οι υποστηρικτές της ανάπτυξης αυτόνομων όπλων επικρίνουν την εκστρατεία για υποδαύλιση κλίματος φόβου με τη χρήση επιθετικής γλώσσας - μερικοί έχουν ήδη [33], αποδώσει την επιτυχία της εκστρατείας στην «τρομολαγνεία». Αλλά η δημοσκόπηση από το Πανεπιστήμιο της Μασαχουσέτης δείχνει ότι οι Αμερικανοί φοβούνται εξίσου [34] τα αυτόνομα όπλα είτε αυτά αναφέρονται ως «αυτόνομα όπλα» είτε ως «ρομπότ δολοφόνοι». Και, είτε οι μηχανικοί θα μπορούσαν υποθετικά να κατασκευάσουν έναν απόλυτα ηθικό στρατιώτη ρομπότ είτε όχι, δεν υπάρχει καμία απόδειξη ότι η αμερικανική κοινή γνώμη πιστεύει ότι τα ρομπότ θα σκοτώσουν λιγότερους αμάχους από όσους οι άνθρωποι. Στην πραγματικότητα, πολλοί από τους ερωτηθέντες τόσο στην άκρα δεξιά όσο και στην άκρα αριστερά φοβούνται ότι τέτοιες μηχανές σε λάθος χέρια θα μπορούσαν να γίνουν εργαλεία τυραννίας.
Το επιχείρημα υπέρ των αυτόνομων οπλικών συστημάτων που περισσότερο επηρεάζει το κοινό είναι η πιθανότητα ότι θα μπορούσαν να προστατεύσουν τους στρατιώτες. Η προστασία των στρατευμάτων, όχι η προστασία των πολιτών, ήταν η πιο συχνή αιτία που δινόταν από το 10% των ερωτηθέντων που υποστηρίζουν σθεναρά τη χρήση των αυτόνομων όπλων. Αλλά το θέμα δεν έχει μεγάλη πολιτική βαρύτητα, δεδομένου ότι πολλοί από το στρατιωτικό προσωπικό δεν συμφωνούν. Στην ίδια έρευνα, στρατιωτικό προσωπικό, βετεράνοι καθώς και εκείνοι που έχουν μέλη της οικογένειάς τους στον στρατό ήταν πιο έντονα αντίθετοι στα αυτόνομα όπλα από όσο το ευρύ κοινό, με την υψηλότερη αντίθεση να εντοπίζεται στους εν ενεργεία στρατιωτικούς. Πράγματι, τα μέλη των ενόπλων δυνάμεων έχουν καταγράψει πρόσφατα [35] μια σειρά από πειστικά επιχειρήματα κατά των αυτόνομων όπλων[36], συμπεριλαμβάνοντας και την ιδέα ότι ο λεγόμενος ηθικός πολεμιστής προϋποθέτει την ανάληψη κινδύνων υπέρ των πολιτών καθώς και ανθρώπινη ηθική κρίση.
Έτσι, αν μια σύνοδος για την απαγόρευση της χρήσης των ρομπότ δολοφόνων γίνει η επόμενη μεγάλη πολυμερής συνθήκη ελέγχου εξοπλισμών, δεν θα είναι λόγω των φθηνών τακτικών εκφοβισμού, όπως ισχυρίζονται κάποιοι. Ούτε θα είναι επειδή οι πολιτικοί φορείς έχουν ήδη συγκεντρωθεί, ούτε επειδή τα όπλα κατ’ ανάγκη παραβιάζουν τις βασικές ανθρωπιστικές αρχές. Θα είναι επειδή η παγκόσμια κοινωνία των πολιτών βασίστηκε σε μια σοβαρή και διάχυτη ηθική πεποίθηση: ότι απλώς επειδή μπορούμε να κάνουμε κάτι, δεν σημαίνει ότι θα πρέπει και να το κάνουμε.


* Η CHARLI CARPENTER είναι αναπληρώτρια καθηγήτρια Πολιτικών Επιστημών στο πανεπιστήμιο της Μασαχουσέτης – Άμχερστ και η συγγραφέας δύο βιβλίων σχετικά με την προστασία των πολιτών. Γράφει σχετικά με την ανθρώπινη ασφάλεια στο μπλογκ DuckofMinerva.com.


Copyright © 2002-2012 by the Council on Foreign Relations, Inc.
All rights reserved.


Στα αγγλικά: http://www.foreignaffairs.com/articles/139554/charli-carpenter/beware-th...

Σύνδεσμοι:
[1] http://news.usni.org/2013/05/03/document-u-n-report-calling-for-moratori...
[2] http://news.usni.org/2013/05/03/u-n-report-singles-out-two-navy-weapons-...
[3] http://www.dtic.mil/whs/directives/corres/pdf/300009p.pdf
[4] http://economictimes.indiatimes.com/india-developing-robotic-soldiers-to...
[5] http://www.thenation.com/article/174809/un-takes-disarmaments-next-front...
[6] http://www.article36.org/statements/ban-autonomous-armed-robots/
[7] http://www.stopkillerrobots.org/
[8] http://www.democracynow.org/2012/11/20/killer_robots_hrw_and_nobel_laureate
[9] http://www.ohchr.org/Documents/HRBodies/HRCouncil/RegularSession/Session...
[10] http://www.amazon.com/Killer-Robots-Armin-Krishnan/dp/0754677265
[11] http://www.thesleuthjournal.com/militaries-growing-use-of-ground-robots-...
[12] http://www.icrc.org/customary-ihl/eng/docs/v1_cha_chapter1_rule1
[13] http://www.icrc.org/customary-ihl/eng/docs/v1_cha_chapter20_rule70
[14] http://www.icrc.org/customary-ihl/eng/docs/v2_cou_nl_rule77
[15] http://www.icrc.org/eng/resources/documents/misc/57jpa8.htm
[16] http://rusi.org/downloads/assets/23sharkey.pdf
[17] http://www.guardian.co.uk/science/2013/may/29/killer-robots-ban-un-warning
[18] http://chronicle.com/article/Moral-Robots-the-Future-of/134240/
[19] http://www.cfr.org/world/law-ethics-robot-soldiers/p29598
[20] http://media.hoover.org/sites/default/files/documents/Anderson-Waxman_La...
[21] http://www.foreignpolicy.com/articles/2011/08/15/think_again_war
[22] http://www.foreignpolicy.com/articles/2013/05/14/a_liberal_case_for_drones
[23] http://www.plosone.org/article/info:doi/10.1371/journal.pone.0023976
[24] file://localhost/owa/redir.aspx
[25] http://journals.cambridge.org/action/displayAbstract;jsessionid=3714B6A8...
[26] http://www.icrc.org/eng/resources/documents/publication/p0902.htm
[27] http://www.icrc.org/eng/resources/documents/misc/57jnhy.htm
[28] http://www.hrw.org/
[29] http://www.hrw.org/reports/2012/11/19/losing-humanity-0
[30] http://www.whiteoliphaunt.com/duckofminerva/wp-content/uploads/2013/06/U...
[31] http://www.whiteoliphaunt.com/duckofminerva/wp-content/uploads/2013/06/f...
[32] http://www.whiteoliphaunt.com/duckofminerva/2013/06/the-dictates-of-the-...
[33] http://www.forbes.com/sites/gregorymcneal/2013/02/27/fear-and-the-killer...
[34] http://www.whiteoliphaunt.com/duckofminerva/2013/06/the-fear-factor-in-k...
[35] http://ricks.foreignpolicy.com/posts/2013/06/17/robots_causing_a_fading_...
[36] http://ricks.foreignpolicy.com/posts/2013/06/18/rosas_dystopia_the_moral...