Πώς θα διεξαγόταν μια αερομαχία στο Αιγαίο εάν στη θέση των πιλότων τοποθετούσαμε δύο υπερυπολογιστές τεχνητής νοημοσύνης; Εξαρτάται αν θεωρούμε την τεχνητή νοημοσύνη ως μια ανεξέλεγκτη δύναμη ή απλώς ως ακόμη έναν μαθητή της πιο δολοφονικής μηχανής που έχει υπάρξει στη Γη: του ανθρώπου.
Τα δύο F-16 κινούνταν επικίνδυνα προς το έδαφος καθώς κάθε πιλότος προσπαθούσε να φέρει τον αντίπαλό του σε απόσταση και γωνία βολής. Μια καθυστέρηση όμως μερικών δεκάτων του δευτερολέπτου στην αντίδραση του πιλότου του δεύτερου μαχητικού έδωσε την ευκαιρία στον αντίπαλό του να τον καταρρίψει.
To περιστατικό σημειώθηκε στα μέσα του καλοκαιριού ανάμεσα σε έναν πιλότο της αμερικανικής πολεμικής αεροπορίας και ένα σύστημα τεχνητής νοημοσύνης της εταιρείας Heron, στο πλαίσιο μιας εικονικής αερομαχίας σε προσομοιωτή πτήσεων που οργάνωσε η υπηρεσία έρευνας και ανάπτυξης του αμερικανικού Πενταγώνου DARPA. Ο αληθινός πιλότος ηττήθηκε και στις πέντε εικονικές αερομαχίες που πραγματοποιήθηκαν.
Για όσους παρακολουθούν τις εξελίξεις στον κλάδο της πολεμικής βιομηχανίας η αερομαχία είχε την ίδια συμβολική σημασία με την ήττα που υπέστη ο Γκάρι Κασπάροφ από τον υπερυπολογιστή Deep Blue της IBM το 1996. Όσο για τα διεθνή ΜΜΕ, προέβαλαν ένα μείγμα θαυμασμού για την τεχνολογική καινοτομία και φρίκης για την προοπτική ενός κόσμου όπου θα κυριαρχούν υπερυπολογιστές.
Ο φόβος που συνοδεύει την τεχνητή νοημοσύνη και ιδιαίτερα την εμπλοκή της στην πολεμική βιομηχανία φαίνεται να πηγάζει απευθείας από ταινίες όπως το «Ρόμποκοπ» ή «Η Οδύσσεια του Διαστήματος» του Κιούμπρικ, όπου ρομπότ και υπολογιστές δολοφονούν ανυπεράσπιστους ανθρώπους. Σύμφωνα με το περιοδικό Wired, ακόμη και επιτελείς του αμερικανικού Πενταγώνου εκφράζουν όλο και συχνότερα την έντονη δυσαρέσκειά τους για το ενδεχόμενο η απόφαση ενός στρατιωτικού πλήγματος να λαμβάνεται από έναν υπολογιστή χωρίς ανθρώπινη έγκριση.
Στην πραγματικότητα βέβαια η ανησυχία των τελευταίων είναι τόσο «εικονική» όσο και η πρόσφατη αερομαχία. Όπως εξηγεί ο γνωστός δημοσιογράφος Πέτρος Παπακωνσταντίνου στο νέο του βιβλίο με τίτλο «Ανθρωποι και ρομπότ» (εκδ. Λιβάνη), «ο ρόλος του αμερικανικού στρατιωτικο-βιομηχανικού συμπλέγματος ήταν καθοριστικός στη χρηματοδότηση και ανάπτυξη της τεχνητής νοημοσύνης κατά την περίοδο του Ψυχρού Πολέμου», ενώ «η γιγάντωση της Google, όπως και άλλων πρωταθλητών του Διαδικτύου και της τεχνητής νοημοσύνης, διευκολύνθηκε κατά πολύ από τη σύμπραξή τους με τις μυστικές υπηρεσίες (των ΗΠΑ)».
Προφανώς η ανησυχία είναι εύλογη αν σκεφτεί κανείς τις δεκάδες τεχνικές αστοχίες που μπορεί να οδηγήσουν σε εκατόμβες νεκρών μεταξύ των αμάχων. Η αντίληψη όμως ότι οι αποφάσεις μιας μηχανής στο πεδίο της μάχης είναι πιο επικίνδυνες από αυτές του ανθρώπου αγνοεί τη βασική ιδιότητα των αλγορίθμων και της τεχνητής νοημοσύνης: ότι είναι δημιουργήματα των ανθρώπων και αναπαράγουν υπαρκτές ηθικές επιλογές και νόμους.
Αν λόγου χάρη η τεχνητή νοημοσύνη των οπλικών συστημάτων «εκπαιδευόταν» με τις αρχές του Καταστατικού Χάρτη του ΟΗΕ και της Συνθήκης της Γενεύης, τα αμερικανικά drones δεν θα σκότωναν εκατοντάδες άμαχους πολίτες στο Αφγανιστάν και τα ισραηλινά F-16 δεν θα βομβάρδιζαν πυκνοκατοικημένες περιοχές στη Λωρίδα της Γάζας.
Για να μην πηγαίνουμε όμως πολύ μακριά, ας προσπαθήσουμε να σκεφτούμε ένα λιγότερο «βολικό» για εμάς σενάριο στο οποίο τα αεροσκάφη της ελληνικής και της τουρκικής πολεμικής αεροπορίας ελέγχονται πλήρως από συστήματα τεχνητής νοημοσύνης.
Σήμερα, αν ένα τουρκικό αεροσκάφος πετάξει σε απόσταση επτά ναυτικών μιλίων από τις ακτές ενός ελληνικού νησιού, ένας ή περισσότεροι Έλληνες πιλότοι θα κληθούν να το αναχαιτίσουν ή ακόμη και να το καταρρίψουν. Και αυτό γιατί η Ελλάδα έχει την παγκόσμια παραδοξότητα να αναγνωρίζει εναέριο χώρο 10 ν.μ. και όχι 6 ν.μ. που προβλέπει το Διεθνές Δίκαιο – όσο δηλαδή και τα χωρικά ύδατα.
Ένα σύστημα τεχνητής νοημοσύνης θα αρνούνταν λοιπόν να εμπλακεί σε αναχαίτιση αφού βάσει του Διεθνούς Δικαίου το τουρκικό μαχητικό έχει κάθε δικαίωμα να βρίσκεται στο συγκεκριμένο σημείο. Αντίστοιχα βέβαια, τα αυτοματοποιημένα πολεμικά πλοία του τουρκικού στόλου θα έπρεπε να μένουν αγκυροβολημένα στα λιμάνια τους ακόμη και αν λάμβαναν εντολές να εισέλθουν σε περιοχές όπου η Ελλάδα ασκεί κυριαρχικά δικαιώματα. Και στις δύο περιπτώσεις η τεχνητή νοημοσύνη, σεβόμενη το Διεθνές Δίκαιο, θα είχε συμβάλει στην αποφυγή πιθανών θερμών επεισοδίων.
Προφανώς η συζήτηση είναι πολύ πιο σύνθετη αφού ακόμη και το Διεθνές Δίκαιο δεν αποτελεί κάποιου είδους φυσικό νόμο αλλά μια πρόσκαιρη αποτύπωση των ισορροπιών μεταξύ των εκάστοτε ισχυρότερων δυνάμεων του πλανήτη.
Γίνεται όμως σαφές ότι τελικά ο άνθρωπος δεν έχει να φοβάται τίποτα περισσότερο από τον ίδιο του τον εαυτό. Η τεχνητή νοημοσύνη θα αναπαράγει (ίσως με μεγαλύτερη ταχύτητα και ακρίβεια) τις δικές του ηθικές, πολιτικές και οικονομικές επιλογές. Τα εγκλήματα πολέμου όπως και οι ίδιοι οι πόλεμοι δεν έγιναν ποτέ λόγω ενός τεχνικού σφάλματος κάποιας μηχανής.
Διαβάστε
«Ανθρωποι και ρομπότ: οι προκλήσεις της τεχνητής νοημοσύνης» (εκδόσεις Λιβάνη)
Το εξαιρετικό βιβλίο του Πέτρου Παπακωνσταντίνου, με μια σπάνια πολιτική και οικονομική ματιά στις προκλήσεις και τις προοπτικές της τεχνητής νοημοσύνης.