Τι κοινό έχουν οι OpenAI, Anthropic και Meta; Είναι τεχνολογικοί γίγαντες που πρόσφατα δάνεισαν την τεχνολογία τεχνητής νοημοσύνης τους στον αμερικανικό στρατό και τους συμμάχους του, ακόμη και αφού αρχικά επέμεναν ότι δεν θα το έκαναν.
Στις 4 Δεκεμβρίου 2024, σε μια αντιστροφή της μακροχρόνιας πολιτικής της κατά των στρατιωτικών εφαρμογών, η OpenAI ανακοίνωσε μια συνεργασία με την Anduril Industries, μια εταιρεία αμυντικής τεχνολογίας που ειδικεύεται σε αυτόνομα πυρομαχικά και αναγνωριστικά drones, πυραυλοκινητήρες και διάφορα μη επανδρωμένα εναέρια οχήματα (UAV) και υποβρύχια μη επανδρωμένα οχήματα (UUV) ... και της οποίας η πλατφόρμα λογισμικού Lattice μπορεί να τα ελέγχει όλα ταυτόχρονα.
«Το Lattice επιταχύνει τις πολύπλοκες αλυσίδες θανάτου, ενορχηστρώνοντας εργασίες μεταξύ μηχανών σε κλίμακες και ταχύτητες που υπερβαίνουν τις ανθρώπινες δυνατότητες», είναι το σλόγκαν για το λογισμικό Lattice Command and Control, που δημοσιεύεται στην ιστοσελίδα της Anduril.
Η Anduril διαθέτει ένα αρκετά εντυπωσιακό χαρτοφυλάκιο μηχανών ικανών να ρίχνουν πυρά με το σπρώξιμο ενός joystick και το πάτημα ενός κουμπιού από οποιοδήποτε καταφύγιο σε οποιοδήποτε μέρος του κόσμου ανά πάσα στιγμή.
Στις 16 Μαΐου 2023, κατά τη διάρκεια μιας ακρόασης για την εποπτεία της Γερουσίας, ο Sam Altman προειδοποίησε για τους κινδύνους της τεχνολογίας Τεχνητής Νοημοσύνης, λέγοντας: «Αν αυτή η τεχνολογία πάει στραβά, μπορεί να πάει πολύ στραβά» και θα μπορούσε να προκαλέσει «σημαντική ζημιά στον κόσμο». Ο Altman συνέχισε επίσης λέγοντας ότι «το GPT-4 είναι πιο πιθανό να ανταποκριθεί βοηθητικά και αληθινά και να αρνηθεί επιβλαβή αιτήματα, από οποιοδήποτε άλλο ευρέως διαδεδομένο μοντέλο παρόμοιας ικανότητας».
Βέβαια, πολλά έχουν αλλάξει τους τελευταίους 18 μήνες. Για παράδειγμα, τον Ιανουάριο του 2024, η OpenAI ενημέρωσε τις πολιτικές χρήσης της, αφαιρώντας τη ρητή απαγόρευση της χρήσης μοντέλων τεχνητής νοημοσύνης για «στρατιωτικές και πολεμικές» εφαρμογές, ανοίγοντας την πόρτα για την ανακοίνωση της περασμένης εβδομάδας.
Αν και τα έσοδα της OpenAI προβλέπονται στα 3,7 δισεκατομμύρια δολάρια το 2024, τα λειτουργικά έξοδα είναι σημαντικά και η εταιρεία αναμένεται να χάσει περίπου 5 δισεκατομμύρια δολάρια φέτος. Η εκπαίδευση των μοντέλων τεχνητής νοημοσύνης αποτελεί σημαντικό μέρος αυτού του κόστους. Οι κυβερνητικές και αμυντικές συμβάσεις μοιάζουν με έναν δυνητικά δελεαστικό τρόπο αντιστάθμισης αυτών των απωλειών.
Λίγες ώρες μετά την ανακοίνωση της συνεργασίας OpenAI και Anduril την περασμένη εβδομάδα, οι εργαζόμενοι της OpenAI εξέφρασαν ανησυχίες σχετικά με τις ηθικές επιπτώσεις της εφαρμογής της τεχνητής νοημοσύνης σε στρατιωτικές επιχειρήσεις, αλλά και το πώς θα μπορούσε να επηρεαστεί αρνητικά η φήμη της εταιρείας.
Η OpenAI διαβεβαιώνει το κοινό ότι η τεχνολογία χρησιμοποιείται αυστηρά για αμυντικούς σκοπούς και όχι για επιθετικές τακτικές. Ωστόσο, ένας υπάλληλος της εταιρείας έσπευσε να επισημάνει ότι το Skynet - το φανταστικό λογισμικό τεχνητής νοημοσύνης στις αρχικές ταινίες Terminator που οδήγησε στην παραλίγο καταστροφή της ανθρωπότητας - χρησιμοποιήθηκε επίσης αρχικά ως εργαλείο αεράμυνας για τη Βόρεια Αμερική.
Η συνεργασία OpenAI και Anduril επικεντρώνεται στην αντιμετώπιση εναέριων απειλών, όπως τα drones και τα επανδρωμένα αεροσκάφη. Η εφαρμογή της τεχνητής νοημοσύνης μπορεί να βελτιώσει την ανίχνευση, την αξιολόγηση και την αντιμετώπιση απειλών σε πραγματικό χρόνο. Η εκπαίδευση της AI στη βιβλιοθήκη δεδομένων της Anduril θα μειώσει τον φόρτο των χειριστών, ενώ θα αυξήσει την επίγνωση της κατάστασης για την προστασία των ΗΠΑ και των συμμάχων τους.
«Η συνεργασία μας με την OpenAI θα μας επιτρέψει να αξιοποιήσουμε την παγκόσμιας κλάσης τεχνογνωσία τους στην τεχνητή νοημοσύνη για να αντιμετωπίσουμε επείγοντα κενά σε δυνατότητες αεράμυνας σε όλο τον κόσμο», δήλωσε ο Brian Schimpf, συνιδρυτής και διευθύνων σύμβουλος της Anduril Industries, σε δελτίο τύπου. «Μαζί, δεσμευόμαστε να αναπτύξουμε υπεύθυνες λύσεις που επιτρέπουν στους στρατιωτικούς και τους χειριστές των υπηρεσιών πληροφοριών να λαμβάνουν ταχύτερες και ακριβέστερες αποφάσεις σε καταστάσεις υψηλής πίεσης».
Ο Sam Altman, CEO της OpenAI, πρόσθεσε: «Η συνεργασία μας με την Anduril θα βοηθήσει να διασφαλιστεί ότι η τεχνολογία OpenAI προστατεύει το στρατιωτικό προσωπικό των ΗΠΑ και θα βοηθήσει την κοινότητα εθνικής ασφάλειας να κατανοήσει και να χρησιμοποιήσει υπεύθυνα αυτή την τεχνολογία για να κρατήσει τους πολίτες μας ασφαλείς και ελεύθερους».
Η είδηση αυτή έρχεται σε συνέχεια του ενδιαφέροντος της Meta να ανοίξει τη χρήση της τεχνητής νοημοσύνης της, που ονομάζεται Llama, σε κυβερνητικές υπηρεσίες των ΗΠΑ και αμυντικούς εργολάβους όπως η Lockheed Martin. Άλλοι εργολάβοι αμυντικού προσανατολισμού, όπως η Booz Allen Hamilton, η Palantir, ακόμη και η Anduril, βρίσκονται στον κατάλογο των εταιρειών στις οποίες η Meta θα παρέχει την τεχνολογία AI της - μια στροφή σε σχέση με την προηγούμενη πολιτική της που απαγόρευε την στρατιωτική χρήση της τεχνολογίας της. Ενώ το Llama είναι ένα open source project, προηγουμένως είχε απαγορευτεί η στρατιωτική χρήση του.
«Ως αμερικανική εταιρεία, η οποία οφείλει την επιτυχία της σε μεγάλο βαθμό στο επιχειρηματικό πνεύμα και τις δημοκρατικές αξίες που υποστηρίζουν οι ΗΠΑ, η Meta θέλει να παίξει το ρόλο της στην υποστήριξη της ασφάλειας, της προστασίας και της οικονομικής ευημερίας της Αμερικής - και των στενότερων συμμάχων της επίσης», γράφει ο Nick Clegg, Πρόεδρος Παγκόσμιων Υποθέσεων της Meta.
Λίγες ημέρες μετά την ανακοίνωση της Meta, η Anthropic, η κατασκευάστρια εταιρεία του Claude AI, ανακοίνωσε επίσης τη συνεργασία της με την Palantir Technologies, η οποία έχει στενούς δεσμούς με τις υπηρεσίες άμυνας, πληροφοριών και επιβολής του νόμου.
Η Palantir έχει επικριθεί στο παρελθόν για τον μυστικοπαθή χαρακτήρα της, τα προγράμματα παρακολούθησης και τα προγράμματα μετανάστευσης και τελωνειακής επιβολής (ICE). Έχει επίσης λάβει επαίνους για τη συνδρομή της κατά τη διάρκεια της πανδημίας COVID στον εντοπισμό της εξάπλωσης του ιού και τη βοήθεια σε αντιτρομοκρατικές επιχειρήσεις για το FBI και τη CIA.
Η OpenAI, η Meta και η Anthropic είχαν αρχικά απαγορεύσει τη χρήση της τεχνολογίας τους για στρατιωτικούς σκοπούς, αλλά μετά άλλαξαν πορεία. Η κούρσα για την ενσωμάτωση της Τεχνητής Νοημοσύνης στη στρατιωτική πολιτική, στρατηγική και εκτέλεση βρίσκεται σε πλήρη εξέλιξη και ο απλός λαός δεν μπορεί να κάνει πολλά για να την αλλάξει. Οι συνεργασίες μεταξύ του στρατού και των ιδιωτικών εταιρειών τεχνολογίας δεν είναι κάτι καινούργιο, αν και η εισαγωγή της τεχνητής νοημοσύνης είναι.
Το ερώτημα δεν είναι τόσο αν η τεχνητή νοημοσύνη θα καθορίσει τον σύγχρονο και μελλοντικό πόλεμο, αυτό θεωρείται μάλλον δεδομένο, αλλά περισσότερο αν είμαστε έτοιμοι για τις συνέπειες της...
[via]