Translate

Το μέλλον του πολέμου περνάει από την τεχνητή νοημοσύνη vids

Σμήνη αυτόνομων drones, ρομποτικές αποθήκες όπου αυτο-συναρμολογούνται όπλα,στρατοί ανθρώπων και ανδροειδών, χάκερς μηχανημάτων, είναι όλα μέρος των σχεδίων του αμερικανικού στρατού για το μέλλον των πολέμων. Αναφέρθηκαν πέρυσι σε αναφορά του τμήματος ερευνών του αμερικανικού υπουργείου Αμύνης, με θέμα την μετατροπή της τεχνητής νοημοσύνης και της ρομποτικής σε θεμέλιο λίθο της αμυντικής στρατηγικής των ΗΠΑ.

Όπως επισημαίνει ο Πίτερ Ντόνελι, διευθυντής του Κέντρου Ανθρώπινης Γενετικής του Wellcome Trust, «η τεχνητή νοημοσύνη χρησιμοποιείται στο να βάζει ετικέτες στα πρόσωπα των φωτογραφιών μας, στην ερμηνεία φωνητικών εντολών προς τα τηλέφωνά μας, στο να κάνει συστάσεις όταν ψωνίζουμε από ιντερνετικά καταστήματα. Ωστόσο, οι εφαρμογές αυτές ίσα που ξύνουν την επιφάνεια της κατανόησης του πόσο ισχυρή μπορεί να γίνει η συγκεκριμένη τεχνολογία».
Αυτόνομα drones
Η τεχνητή νοημοσύνη έχει ήδη κάνει τα πρώτα βήματα στρατιωτικοποίησης. Τον Ιανουάριο, το δίκτυο CBS κατέγραψε ένα σμήνος μικροσκοπικών drones Perdix, προγραμματισμένων να λειτουργούν ως ομάδα, εν ώρα δράσης. Οι πιθανές τους χρήσεις κυμαίνονται από την ανίχνευση εχθρών μέχρι την αχρήστευση συστημάτων ραντάρ. Ο Ουίλ Ρόπερ, επικεφαλής του αμερικανικού Γραφείου Στρατηγικών Ικανοτήτων είχε δηλώσει στο CBS: «Ανοίγεται ένα εντελώς διαφορετικό πεδίο πολεμικών επιχειρήσεων».
Ήδη τα drones μπορούν να εκτοξεύουν πλαστικές σφαίρες, δακρυγόνα και καλώδια taser. Στη Ρωσία, μια στρατιωτική ρομποτική μονάδα μπορεί να περιπολεί και να εκτοξεύει χειροβομβίδες, ενώ η Νότια Κορέα έχει κατασκευάσει περιστρεφόμενο πολυβόλο που μπορεί από μόνο του να ανιχνεύσει και να πυροβολήσει στόχους. Ταυτόχρονα, υπάρχουν φόβοι ότι κάποτε οι εγκληματίες θα μπορούν να επαναπρογραμματίσουν τα αυτόνομα αυτοκίνητα ή τα drones του εμπορίου και να τα μετατρέψουν σε όπλα προκαλώντας χάος σε πολυσύχναστους δημόσιους χώρους.
Τα bots του Internet
Οι ειδικοί ανησυχούν επίσης για τους «κρυφούς» πεζικάριους των μελλοντικών πολέμων: bots πολιτικής προπαγάνδας, δηλαδή ψεύτικοι λογαριασμοί social media που χρησιμοποιούνται από κυβερνήσεις και δικτάτορες για πλύση εγκεφάλου και εκφοβισμό των πολιτών. «Τουλάχιστον 22 χώρες χρησιμοποιούν δημόσιους πόρους για τη δημιουργία ψηφιακών στρατών που θα μπορούν να κατευθύνουν την κοινή γνώμη μέσω bots», σημειώνει η Σαμάνθα Μπράντσο, ερευνήτρια στο Ινστιτούτο Internet της Οξφόρδης. 
Οι νόμοι της ρομποτικής
Στο διήγημα του 1942 «Runaround» ο συγγραφέας επιστημονικής φαντασίας Ισαάκ Ασίμωφ διατύπωσε τους τρεις νόμους της ρομποτικής, ως δικλείδες ασφαλείας για τα έξυπνα ρομπότ. «Το ρομπότ δε θα κάνει κακό σε άνθρωπο, ούτε με την αδράνειά του θα επιτρέψει να βλαφτεί ανθρώπινο ον», είναι ο πρώτος νόμος.
Ωστόσο οι νόμοι του Ασίμωφ δεν ισχύουν πια στο μεταβαλλόμενο τοπίο των πολεμικών επιχειρήσεων, όπου τα ρομπότ μετατρέπονται από φιλικούς αυτοματοποιημένους βοηθούς σε στρατιωτικοποιημένα πιόνια. Ο Στούαρτ Άρμστρονγκ, ερευνητής στο Ινστιτούτο για το Μέλλον της Ανθρωπότητας στην Οξφόρδη, που ειδικεύεται σε ζητήματα ηθικής της τεχνητής νοημοσύνης, σχολιάζει: «Οι νόμοι του Ασίμωφ προορίζονται για κάποιο είδος οντοτήτων με αυτογνωσία, που μοιάζουν με ανθρώπους. Αλλά τα σύγχρονα συστήματα μπορούν να είναι εξαιρετικά έξυπνα χωρίς να κατανοούν όμως καθόλου έννοιες όπως «βλάπτω». Πρόκειται για ανθρώπινους νόμους, όχι ρομποτικούς».
Οι απειλές

«Το πρόβλημα με τα όπλα τεχνητής νοημοσύνης δεν είναι ότι μια μέρα μπορεί να καταλάβουν τον κόσμο. Το πρόβλημα είναι ότι τα όπλα αυτά είναι πολύ εύκολο να επαναπρογραμματιστούν, επιτρέποντας στον καθένα να δημιουργήσει μια αποτελεσματική φονική μηχανή που δεν κάνει διακρίσεις», σημειώνουν ο προγραμματιστής της Google Ζακ Μάσγκρεϊβ και ο καθηγητής στη Σχολή Οικονομικών του Λονδίνου Μπράιαν Ρόμπερτς σε άρθρο τους το 2015 στο περιοδικό The Atlantic. «Οι ίδιες οι μηχανές δεν είναι τρομακτικές. Το τι όμως μπορεί να κάνει ένας χάκερ με αυτές, είναι».
Οι ειδικοί συχνά υποστηρίζουν ότι η τεχνητή νοημοσύνη χρειάζεται έναν «διακόπτη απενεργοποίησης», έναν κωδικό που θα κλείνει τα μηχανήματα και τον οποίο αυτά δεν θα μπορούν να παρακάμψουν. Άλλοι στέκονται στη σημασία της θέσπισης ξεκάθαρων ρυθμιστικών κανόνων για τη χρήση της τεχνητής νοημοσύνης, χωρίς τους οποίους οι ανθρώπινες ελευθερίες – και η ίδια η ζωή – θα βρεθούν υπό απειλή. Όπως επισημαίνει ο καθηγητής Άρμστρογκ: «Βρισκόμαστε σε μία φάση όπου τα πάντα ελέγχονται αυστηρά από ανθρώπους. Στο μέλλον αυτό ίσως να μην ισχύει. Η νοημοσύνη των μηχανών ίσως να έχει διαφορετικές συνέπειες από αυτές που θέλουμε».

( Insider)
                                                                                                      επιμέλεια SPY

Σχόλια

Τεχνική υποστήριξη, κατασκευή ιστοσελίδας: Charles Bukowski(7SPY), e-mail: spy7ross7@gmail.com