Ο νέος πόλεμος θα είναι «ανεξέλεγκτος» και πιο φονικός

Τα αυτόνομα όπλα αποτελούν μια πρώιμη δοκιμασία της ικανότητας της ανθρωπότητας να αντιμετωπίσει την ένοπλη τεχνητή νοημοσύνη

Τα αυτόνομα όπλα αποτελούν μια πρώιμη δοκιμασία της ικανότητας της ανθρωπότητας να αντιμετωπίσει την ένοπλη τεχνητή νοημοσύνη, της οποίας οι πιο επικίνδυνες μορφές έρχονται.

Τα λένε και «ρομπότ-φονιάδες» και εγείρουν πολλές νομικές και ηθικές ανησυχίες.

Τι ακριβώς σημαίνει να μεταβιβάσουμε την απόφαση για τη ζωή και το θάνατο σε μια μηχανή ή σε ένα αλγόριθμο; Μήπως ο ρόλος των ανθρώπων θα περιοριζόταν απλώς στο να βάζουν σε λειτουργία τις μηχανές και να κάθονται στο περιθώριο, με μικρή ικανότητα να ελέγχουν ή ακόμη και να τερματίζουν τους πολέμους.

Πέρυσι, η ουκρανική εταιρεία μη επανδρωμένων αεροσκαφών Saker ισχυρίστηκε ότι είχε αναπτύξει ένα πλήρως αυτόνομο όπλο, το Saker Scout, το οποίο χρησιμοποιεί τεχνητή νοημοσύνη για να λαμβάνει μόνο του αποφάσεις. Το ποιον θα σκοτώσει στο πεδίο της μάχης, δηλαδή.

Το μη επανδρωμένο αεροσκάφος, δήλωσαν οι εκπρόσωποι της Saker, είχε πραγματοποιήσει αυτόνομες επιθέσεις σε μικρή κλίμακα.

Αν και αυτό δεν έχει επαληθευτεί από ανεξάρτητη πηγή, η τεχνολογία που απαιτείται για τη δημιουργία ενός τέτοιου όπλου, που θα  είναι σε θέση να αναζητά και να επιλέγει στόχους από μόνο τους, σίγουρα υπάρχει.

Οι χώρες συζητούν εδώ και μια δεκαετία τι πρέπει να κάνουν με τα αυτόνομα όπλα, αλλά δεν έχουν καταφέρει να συμφωνήσουν σε κανονισμούς για τον περιορισμό των επιπτώσεών τους.

Ωστόσο, υπάρχει επείγουσα ανάγκη για διεθνή συμφωνία, επισημαίνει το Foreign Affairs.

Η ανεξέλεγκτη ανάπτυξη αυτόνομων όπλων θα μπορούσε να οδηγήσει σε πολέμους που επεκτείνονται πέρα από τον ανθρώπινο έλεγχο, με περιορισμένη προστασία τόσο για τους στρατιώτες όσο και για τους αμάχους.

Ακόμα και αν η καθολική απαγόρευση δεν είναι ρεαλιστική, υπάρχουν πολλοί κανόνες που μπορούν να υιοθετήσουν οι κυβερνήσεις για να περιορίσουν τους κινδύνους.

Χωρίς περιορισμούς, η ανθρωπότητα κινδυνεύει να οδεύσει προς ένα μέλλον επικίνδυνων, μηχανοκίνητων πολέμων.

Χρήση από την δεκαετία του 1980

Οι στρατοί έχουν κάνει περιορισμένη χρήση αυτόνομων όπλων ήδη από τη δεκαετία του 1980.

Σήμερα, τουλάχιστον 30 χώρες διαθέτουν συστήματα αεράμυνας και αντιπυραυλικής άμυνας ή συστήματα αντιπυραυλικής προστασίας για οχήματα εδάφους που διαθέτουν αυτόνομες λειτουργίες.

Μόλις ενεργοποιηθούν, ανιχνεύουν αυτόματα τις εισερχόμενες ρουκέτες, τους όλμους, τους πυραύλους ή τα αεροσκάφη και τις αναχαιτίζουν. Όμως η λειτουργία τους γίνεται υπό ανθρώπινη επίβλεψη που μπορούν να επέμβουν αν κάτι πάει στραβά.

Οι στρατοί γενικότερα έχουν αργήσει να υιοθετήσουν την τεχνολογία Τεχνητής Νοημοσύνης που έχει αναπτυχθεί στον ιδιωτικό τομέα, εν μέρει λόγω των περίπλοκων διαδικασιών προμηθειών.

Ο πόλεμος στην Ουκρανία επιτάχυνε την εισαγωγή καινοτομίας και στις δύο αντιμαχόμενες πλευρές, ιδίως με μικρά μη επανδρωμένα αεροσκάφη του εμπορίου που  πιλοτάρονται εξ αποστάσεως, με τον χειριστή να είναι απαραίτητος.

Όλα αυτά τα UAV, τα οποία επί του παρόντος ελέγχονται εξ αποστάσεως, θα μπορούσαν να αναβαθμιστούν ώστε να γίνουν αυτόνομα, επιτρέποντας τη συνέχιση της λειτουργίας τους σε περίπτωση εμπλοκής  στην επικοινωνιακή σύνδεση.

Τα επίγεια οχήματα έχουν μείνει πίσω σε σχέση με τα αντίστοιχα εναέρια και θαλάσσια, αλλά οι μελλοντικοί πόλεμοι θα μπορούσαν να δουν αυτόνομα όπλα να μετατρέπονται σε ρομποτικά οπλοστάσια.

Οι αλλαγές πιθανότατα δεν θα σταματήσουν εκεί.

REUTERS/Stringer

Ξέφρενοι ρυθμοί

Σμήνη μη επανδρωμένων αεροσκαφών θα μπορούσαν να συντονίζουν αυτόνομα τη συμπεριφορά τους, αντιδρώντας στις αλλαγές στο πεδίο της μάχης με ταχύτητα που ξεπερνά τις ανθρώπινες δυνατότητες.

Οι αυτόνομες αντιδράσεις σε ταχύτητες μηχανής θα μπορούσαν να οδηγήσουν σε ταχύτερο ρυθμό επιχειρήσεων, επιταχύνοντας τον ρυθμό της μάχης. Αυτό με τη σειρά του θα μπορούσε να δημιουργήσει ακόμη μεγαλύτερη πίεση για τον εξοβελισμό των ανθρώπων από τους κύκλους λήψης αποφάσεων. Οι συνέπειες αυτής της μετάβασης θα είναι βαθιές.

Κορυφαίοι επιστήμονες Τεχνητής Νοημοσύνης, όπως ο καθηγητής του Πανεπιστημίου της Καλιφόρνιας Στιούαρτ Ράσελ και ο βραβευμένος με το βραβείο Turing Γιαν ΛεΚουν, έχουν προειδοποιήσει για τους κινδύνους των αυτόνομων όπλων.

Μια κοινοπραξία περισσότερων από 250 μη κυβερνητικών οργανώσεων, συμπεριλαμβανομένων της Διεθνούς Αμνηστίας, του Παρατηρητηρίου Ανθρωπίνων Δικαιωμάτων και της Πρωτοβουλίας των Γυναικών Νόμπελ, έχουν οργανώσει εκστρατεία για να σταματήσουν τα δολοφονικά ρομπότ, ζητώντας μια δεσμευτική συνθήκη για την απαγόρευσή τους.

Οι άμαχοι στο έλεός τους

Οι προειδοποιήσεις και εκστρατείες υπογραμμίζουν την ανησυχία ότι τα αυτόνομα όπλα θα μπορούσαν να αυξήσουν τις απώλειες αμάχων στον πόλεμο.

Παρά την δυνατότητά τους για ακριβή στόχευση των ένοπλων, στα χέρια ενός κράτους που αδιαφορεί ελάχιστα για τις απώλειες αμάχων -ή θέλει να τιμωρήσει έναν άμαχο πληθυσμό- θα μπορούσαν να διαπράξουν φρικαλεότητες. Μαζικές ορδές αυτόνομων όπλων θα μπορούσαν να αναπτυχθούν για να στοχεύσουν και να σκοτώσουν χιλιάδες κάθε φορά κάνοντας τις σημερινές έξυπνες βόμβες να φαίνονται  αχρηστες.

Ένας από τους πιο ακραίους κινδύνους προέρχεται από την ενσωμάτωση της τεχνητής νοημοσύνης και της αυτονομίας στα πυρηνικά όπλα.  Η Μόσχα έχει δείξει μια ανησυχητική προθυμία να ενσωματώσει την επικίνδυνη αυτοματοποίηση στις πυρηνικές της επιχειρήσεις.

Οι πιο επικίνδυνες μορφές έρχονται

Τα αυτόνομα όπλα έρχονται. Οι προσπάθειες για την πλήρη απαγόρευσή τους, αν και καλοπροαίρετες, είναι μάλλον μάταιες. Η στρατιωτική τους αξία είναι απλά πολύ μεγάλη. Ωστόσο, οι χώρες έχουν τη δυνατότητα να επιλέξουν πώς θα χρησιμοποιηθούν .

Χωρίς αποτελεσματικούς περιορισμούς, τα αυτόνομα όπλα θα μειώσουν τον ανθρώπινο έλεγχο του πολέμου, θα θέσουν σε αυξημένο κίνδυνο τους αμάχους και τους μαχόμενους και θα υπονομεύσουν τη διεθνή σταθερότητα.

Τα αυτόνομα όπλα αποτελούν μια πρώιμη δοκιμασία της ικανότητας της ανθρωπότητας να αντιμετωπίσει την ένοπλη τεχνητή νοημοσύνη, της οποίας οι πιο επικίνδυνες μορφές έρχονται.

Η επίτευξη διεθνούς συμφωνίας για τα αυτόνομα όπλα είναι κρίσιμη για την αντιμετώπιση των κινδύνων που προκαλούν και τη δημιουργία των βάσεων για τη συνεργασία σε μελλοντικούς, ακόμη πιο σημαντικούς κινδύνους από την τεχνητή νοημοσύνη.