Ο στρατός του μέλλοντος που θα μπορεί να σκοτώνει για το γενικότερο καλό

Φανταστείτε ένα μέλλον όπου αυτόνομα ρομπότ θα παίρνουν αποφάσεις για τη ζωή ή τον θάνατο μιας ανθρώπινης ύπαρξης και που δεν θα βασίζονται μόνο σε στοιχεία, αλλά και σε ένα προγραμματισμένο ηθικό κώδικα.
Αυτό δεν είναι η πλοκή ενός δυστοπικού μυθιστορήματος. 
Είναι η οδηγία ενός νέου προγράμματος του αμερικανικού Πενταγώνου. Το Υπουργείο Άμυνας των ΗΠΑ, σε συνεργασία με κορυφαίους επιστήμονες πληροφορικής, φιλόσοφους και ειδικούς της ρομποτικής από διάφορα πανεπιστήμια των ΗΠΑ, έχει ξεκινήσει ένα πρόγραμμα, που θα αντιμετωπίσει το δύσκολο θέμα της «ανθρώπινης ηθικής» και της «ηθικής» των ρομπότ. (ρομποηθική)

Με αυτό το διεπιστημονικό πρόγραμμα θα προσπαθήσουν να «αποκωδικοποιήσουν» την ανθρώπινη ηθική και να καθορίσουν τα βασικά συστατικά της. Επιχειρούν δηλαδή να αναπτύξουν το περίγραμμα της αιτιολόγησης της ανθρώπινης ηθικής και στη συνέχεια η ερευνητική ομάδα θα επιχειρήσει να προσαρμόσει αυτό το περίγραμμα σε έναν αλγόριθμο, ο οποίος με τη σειρά του θα μπορούσε να ενσωματωθεί σε ένα κατασκεύασμα με τεχνητή νοημοσύνη.
          

Δηλαδή η δημιουργία αυτόνομων ρομπότ με ηθική ακεραιότητα και ενσωματωμένη την έννοια της ηθικής και τη δυνατότητα να επιλέξουν το σωστό από το λάθος.
Εάν επιτύχουν στο έργο τους θα δημιουργήσουν μία μορφή τεχνητής νοημοσύνης που θα είναι σε θέση να επεξεργάζεται αυτόνομα δύσκολες καταστάσεις και να προχωράει σε πολύπλοκες αποφάσεις που υπερβαίνουν τις βασικές εντολές στις οποίες έχουν προγραμματιστεί. Παράλληλα, θα είναι σε θέση να αιτιολογήσουν τις πράξεις τους έναντι των ανθρώπων οι οποίοι θα τα ελέγχουν.

Καθώς προχωρούμε σταθερά προς μια στρατιωτική δύναμη που θα αποτελείται από αυτόνομα ρομπότ - μουλάρια, που θα υποστηρίζεται από πεζούς στρατιώτες και drones - γίνεται όλο και πιο σημαντικό να δώσουμε σε αυτά τα μηχανήματα με τεχνητή ευφυΐα - την ικανότητα να λαμβάνουν τη σωστή απόφαση. Ναι, το Υπουργείο Άμυνας των ΗΠΑ προσπαθεί να αποφύγει την περίπτωση Skynet πρν αυτό κυριαρχήσει στον κόσμο. Πόσο πολύ λογικό!!!

Το έργο αυτό διεξάγεται από ερευνητές από τα πανεπιστήμια Tufts και Brown, και το Rensselaer Polytechnic Institute (ΙΕΤ), με χρηματοδότηση από το Γραφείο Ναυτικών Ερευνών, (όπως DARPA) και είναι μια πτέρυγα του Υπουργείου Άμυνας που ασχολείται κυρίως με στρατιωτικά σχέδια.


Αν και δεν είμαστε ακόμη στο σημείο όπου στρατιωτικά ρομπότ σαν το BigDog , θα πρέπει να αποφασίσουν ποιους τραυματισμένους στρατιώτες πρέπει να μεταφέρουν από το πεδίο της μάχης, ή τα UAV θα μπορούν να εκτοξεύσουν πυραύλους Hellfire ενάντια σε τρομοκράτες χωρίς την ανθρώπινη παρέμβαση, είναι πολύ εύκολο να φανταστούμε ένα μέλλον όπου αυτόνομα ρομπότ έχουν αναλάβει την ευθύνη για την πραγματοποίηση αυτού του είδους των ηθικών αποφάσεων σε πραγματικό χρόνο.   

Με λίγα λόγια, είναι καιρός να εξετάσουμε τη σκοπιμότητα της εμφύτευσης των ρομπότ (ή ακριβέστερα τεχνητή νοημοσύνη), με κυκλώματα και υπορουτίνες (υποπρογράμματα εντολών) που μπορούν να αναλύσουν μια κατάσταση και να επιλέξουν τη σωστή απόφαση- ακριβώς όπως ένας άνθρωπος.

Όπως μπορείτε πιθανώς να φανταστείτε, αυτό είναι ένα εξαιρετικά δύσκολο έργο. Επιστημονικά μιλώντας, εξακολουθούμε να μην γνωρίζουμε τι είναι στην πραγματικότητα η ηθική στον άνθρωπο  - και δημιουργώντας έτσι μια ψηφιακή ηθική στο λογισμικό είναι ουσιαστικά αδύνατο. Κατ 'αρχάς, η έρευνα θα χρησιμοποιήσει θεωρητική (φιλοσοφική) όσο και εμπειρική (πειραματική) έρευνα για να προσπαθήσει να απομονώσει βασικά στοιχεία της ανθρώπινης ηθικής. Αυτά τα ευρήματα στη συνέχεια θα επεκταθούν σε ένα επίσημο ηθικό πλαίσιο, το οποίο με τη σειρά του μπορεί να υλοποιηθεί σε λογισμικό (πιθανώς κάποιου είδους βαθέων νευρωνικών δικτύων).
                 

Υποθέτοντας ότι θα φτάσουμε τόσο μακρυά και μπορεί πραγματικά να επιτευχθεί,  το πώς οι άνθρωποι αποφασίζουν το σωστό από το λάθος, οι ερευνητές στη συνέχεια θα πάρουν ένα προηγμένο ρομπότ - κάτι σαν το Atlas ή το BigDog - και θα εμποτίσουν το λογισμικό του με ηθική ακεραιότητα. Ένας από τους ερευνητές που συμμετέχουν στο έργο, ο Selmer Bringsjord στο ΙΕΤ, οραματίζεται αυτά τα ρομπότ να χρησιμοποιούν μια προσέγγιση δύο σταδίων για να αποφασίσουν για το σωστό ή το λάθος. 

Πρώτον, θα εκτελέσει ένα "αστραπιαίο ηθικό έλεγχο" - απλά πράγματα όπως το "θα πρέπει να σταματήσει και να βοηθήσει αυτόν τον πληγωμένο στρατιώτη; " 
Ανάλογα με την κατάσταση, το ρομπότ  στη συνέχεια θα αποφασίσει εάν απαιτείται βαθύτερη ηθική λογική - για παράδειγμα, το ρομπότ πρέπει να σταματήσει να βοηθήσει τον πληγωμένο στρατιώτη, ή θα πρέπει να συνεχίσει με την κύρια αποστολή του, την παροχή ζωτικών πυρομαχικών και προμηθειών στην πρώτη γραμμή, όπου άλλοι στρατιώτες βρίσκονται σε κίνδυνο;
Η «ηθική πυξίδα» των ρομπότ θα επιτρέπει την αυτόνομη αξιολόγηση μίας κατάστασης και θα τα οδηγεί σε κρίσιμες αποφάσεις.
  
Τελικά, βέβαια, αυτό το ηθικολογικό πλαίσιο, θα πρέπει επίσης να ασχοληθεί με δύσκολα θέματα όπως ο φόνος. Έχει το δικαίωμα ένας στρατιώτης -ρομπότ να πυροβολήσει τον εχθρό; Τι θα συμβεί αν ο εχθρός είναι ένα παιδί; Μπορεί ένα αυτόνομο UAV να  ανατινάξει μια ομάδα τρομοκρατών; Τι θα συμβεί αν είναι μόνο 90% σίγουρος ότι είναι τρομοκράτες, με μια πιθανότητα 10% να είναι απλά αθώοι χωρικοί; Τι θα έκανε σε μια τέτοια περίπτωση ένας άνθρωπος-πιλότος UAV - και τα ρομπότ πρέπει μόνο να ταιριάζουν με την ηθική και τις ηθικές δεξιότητες των ανθρώπων, ή θα πρέπει να πραγματοποιηθεί η δική τους σε ένα υψηλότερο επίπεδο;


Σε αυτό το σημείο, φαίνεται σχεδόν βέβαιο ότι το Υπουργείο Άμυνας των ΗΠΑ θα σπάσει τελικά τους περίφημους "Τρεις Νόμους της Ρομποτικής" του Asimov- ο πρώτος εκ των οποίων είναι "Ένα ρομπότ δεν μπορεί να κάνει κακό σε ένα ανθρώπινο ον, ούτε με την αδράνειά του θα επιτρέψει να βλαφτεί ανθρώπινο όν.

Θα ανοίξει το κουτί της Πανδώρας. Από τη μία πλευρά, είναι πιθανώς μια καλή ιδέα να αντικατασταθούν οι άνθρωποι- στρατιώτες με ρομπότ - αλλά από την άλλη κανείς δεν μπορεί να προβλέψει ένα Skynet....


Η έναρξη αυτού του έργου σημαίνει ότι θα πρέπει πολύ σύντομα να αποφασίσουμε αν έχει το δικαίωμα ένα ρομπότ να πάρει τη ζωή ενός ανθρώπου.

Φυσικά το εν λόγω πρόγραμμα που αναπτύσσεται για λογαριασμό του Αμερικανικού Ναυτικού, λέγεται ότι προορίζει τέτοιου είδους ρομπότ για το ρόλο του «νοσοκόμου» τα οποία θα συνοδεύουν τους πραγματικούς στρατιώτες στο πεδίο της μάχης.      
    

Ποιός πραγματικά όμως μπορεί να πιστέψει ότι θα μείνουν σε ιατρικό επίπεδο και δεν θα χρησιμοποιηθούν για τη δημιουργία ενός πραγματικά ανίκητου στρατού που θα αποφασίζει για τη ζωή των άνθρώπων, ή ακόμα χειρότερα ενός παγκόσμιου στρατού με επιλεγμένη κατευθυνόμενη ηθική που θα εκτελεί τις διαταγές μιας παγκόσμιας τυραννικής κυβέρνησης;


http://thecuriosityofcat.blogspot.gr

Δημοσίευση σχολίου

Blogger