Η Τεχνητή Νοημοσύνη είναι ένα από τα πιο δημοφιλή θέματα, όχι μόνο χάρη στην κυκλοφορία και την απήχηση των LLM chatbots, όπως το ChatGPT και το DeepSeek από την Κίνα που γκρέμισε το χρηματιστήριο. Η δημοτικότητα αυτών των εργαλείων έχει οδηγήσει σε ανησυχίες σχετικά με το πώς θα επηρεάσουν τους ανθρώπους σε διάφορους κλάδους, συμπεριλαμβανομένων των ανθρώπων που δεν είναι εξοικειωμένοι με τον όρο «Τεχνητή Νοημοσύνη».
Υπάρχουν κάποιοι κίνδυνοι που σχετίζονται με τα AI συστήματα, ειδικά όταν πρόκειται για την πιθανότητά τους να εμβαθύνουν την παραπληροφόρηση, τις παραβιάσεις της ιδιωτικότητας, την υπερβολική εξάρτηση και, φυσικά, τον πόλεμο. Ως εκ τούτου, οι κορυφαίοι ηγέτες της AI εργάζονται συνεχώς σκληρά για να διατηρήσουν την AI ασφαλή για όλους. Η Google δημοσιεύει κάθε χρόνο εδώ και έξι χρόνια μια «Έκθεση προόδου για την υπεύθυνη Τεχνητή Νοημοσύνη» και σήμερα, δημοσίευσε την αντίστοιχη έκθεση για το 2024.
Στην ανάρτηση της, η Google ανέφερε ότι έχει επικαιροποιήσει το Frontier Safety Framework. Αν δεν ξέρετε τι είναι αυτό, πρόκειται για ένα σύνολο πρωτοκόλλων που αναπτύχθηκε από την Google DeepMind για τον προληπτικό εντοπισμό και τον μετριασμό των πιθανών κινδύνων που σχετίζονται με τα προηγμένα AI μοντέλα. Το επικαιροποιημένο πλαίσιο περιλαμβάνει:
- Συστάσεις για αυξημένη ασφάλεια: συμβάλλει στον εντοπισμό των σημείων όπου απαιτούνται οι ισχυρότερες προσπάθειες για τον περιορισμό του κινδύνου διαρροής.
- Διαδικασία μετριασμού της ανάπτυξης: εστίαση στην πρόληψη της κατάχρησης κρίσιμων δυνατοτήτων στα συστήματα που αναπτύσσουμε.
- Κίνδυνος παραπλανητικής ευθυγράμμισης: αντιμετώπιση του κινδύνου ενός αυτόνομου συστήματος που υπονομεύει σκόπιμα τον ανθρώπινο έλεγχο.
Παράλληλα με την επικαιροποίηση του πλαισίου ασφαλείας, η Google επανέλαβε την πεποίθησή της ότι οι δημοκρατίες θα πρέπει να πρωτοστατούν στην ανάπτυξη της Τεχνητής Νοημοσύνης, καθοδηγούμενες από αξίες όπως «η ελευθερία, η ισότητα και ο σεβασμός των ανθρωπίνων δικαιωμάτων». Επιπλέον, δήλωσε ότι επικαιροποιεί τις αρχές της για την AI, οι οποίες δημοσιεύθηκαν δημόσια το 2018.
Όταν ρίξετε μια ματιά στην πλήρη σελίδα των αρχών για την AI, θα παρατηρήσετε ότι δεν υπάρχει καμία αναφορά στη χρήση της AI στην ανάπτυξη όπλων. Αυτό το αντίγραφο της σελίδας, που αρχειοθετήθηκε στις 22 Φεβρουαρίου 2024, έχει ένα μέρος που αναφέρει ρητά τα όπλα και την υπόσχεση της Google να μην «σχεδιάσει ή αναπτύξει AI» σε αυτόν τον τομέα:
Όπλα ή άλλες τεχνολογίες των οποίων ο κύριος σκοπός ή η εφαρμογή είναι να προκαλέσουν ή να διευκολύνουν άμεσα τον τραυματισμό ανθρώπων.
Αυτή η γραμμή έχει πλέον εξαφανιστεί από τις επικαιροποιημένες αρχές. Οι επικαιροποιημένες αρχές θα επικεντρωθούν στις ακόλουθες τρεις βασικές αρχές:
- Τολμηρή καινοτομία: Προωθούμε την οικονομική πρόοδο και βελτιώνουμε τις ζωές, επιτρέπουμε επιστημονικές ανακαλύψεις και συμβάλλουμε στην αντιμετώπιση των μεγαλύτερων προκλήσεων της ανθρωπότητας.
- Υπεύθυνη ανάπτυξη και αξιοποίηση: Επειδή αντιλαμβανόμαστε ότι η AI, ως μια ακόμη αναδυόμενη μετασχηματιστική τεχνολογία, ενέχει νέες πολυπλοκότητες και κινδύνους, θεωρούμε επιτακτική ανάγκη να παρακολουθούμε την AI με υπευθυνότητα καθ' όλη τη διάρκεια του κύκλου ζωής της ανάπτυξης και της διάθεσης - από τον σχεδιασμό έως τις δοκιμές και την ανάπτυξη έως την επανάληψη - μαθαίνοντας καθώς η AI και οι χρήσεις της προχωρούν και εξελίσσονται.
- Συνεργατική πρόοδος, μαζί: Μαθαίνουμε από τους άλλους και δημιουργούμε τεχνολογία που δίνει τη δυνατότητα σε άλλους να αξιοποιήσουν θετικά την Τεχνητή Νοημοσύνη.
Η Google δεν έχει σχολιάσει την άρση της δέσμευσης να μην χρησιμοποιήσει την AI στην ανάπτυξη όπλων, αλλά αυτό είναι κάτι στο οποίο οι υπάλληλοί της έχουν εκφράσει έντονη αντίθεση στο παρελθόν. Για παράδειγμα, το 2018, σχεδόν 4.000 εργαζόμενοι της Google υπέγραψαν επιστολή με την οποία προέτρεπαν την εταιρεία να τερματίσει τη σύμβαση με το Υπουργείο Άμυνας των ΗΠΑ, γνωστή ως Project Maven, η οποία αφορούσε τη χρήση AI για την ανάλυση υλικού από μη επανδρωμένα αεροσκάφη.
Ομοίως, πέρυσι, οι εργαζόμενοι της Google DeepMind υπέγραψαν επιστολή με την οποία προέτρεπαν τον τεχνολογικό γίγαντα να τερματίσει τους δεσμούς του με στρατιωτικούς οργανισμούς. Η επιστολή επικαλέστηκε τις αρχές της εταιρείας για την Τεχνητή Νοημοσύνη, υποστηρίζοντας ότι η εμπλοκή της με τον στρατό και την κατασκευή όπλων ήταν αντίθετη και παραβίαζε την υπόσχεση που έχει πλέον αφαιρεθεί να μην χρησιμοποιήσει την Τεχνητή Νοημοσύνη σε αυτόν τον τομέα.
[via]