Σάββατο, 17 Φεβρουαρίου, 2024
Η δέσμευση του Μονάχου και το μεγάλο τεστ των επερχόμενων εκλογών
Οι μεγαλύτερες εταιρείες τεχνολογίας στον κόσμο έχουν δεσμευτεί να καταπολεμήσουν το «παραπλανητικό» περιεχόμενο που δημιουργείται από τεχνητή νοημοσύνη, ενόψει κρίσιμων εκλογικών αναμετρήσεων, φέτος καθώς εντείνονται οι φόβοι για τις επιπτώσεις της παραπληροφόρησης στη δημοκρατία.
Η Amazon, η Google, η Meta, η Microsoft, η TikTok και η OpenAI ήταν μεταξύ των 20 εταιρειών τεχνολογίας που δήλωσαν την Παρασκευή κατά τη Διάσκεψη Ασφαλείας του Μονάχου ότι θα συνεργαστούν για να καταπολεμήσουν τη δημιουργία και τη διάδοση περιεχομένου που έχει σχεδιαστεί για να παραπλανήσει τους ψηφοφόρους, όπως «deepfake» εικόνες, βίντεο και ήχου.
Σύμφωνα με την εθελοντική συμφωνία που υπέγραψαν οι εταιρείες, την οποία παρουσιάζουν οι Financial Times, η ταχεία ανάπτυξη της τεχνητής νοημοσύνης «δημιουργεί νέες ευκαιρίες καθώς και προκλήσεις για τη δημοκρατική διαδικασία» και η διάδοση παραπλανητικού περιεχομένου θα μπορούσε «να θέσει σε κίνδυνο την ακεραιότητα των εκλογικών διαδικασιών».
ΗΠΑ: Πώς τα deepfake απειλούν τις αμερικανικές εκλογές
«Με τόσες πολλές σημαντικές εκλογές που διεξάγονται φέτος, είναι ζωτικής σημασίας να κάνουμε ό,τι μπορούμε για να αποτρέψουμε την εξαπάτηση των ανθρώπων από περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη», δήλωσε ο Nick Clegg, πρόεδρος παγκόσμιων υποθέσεων στη Meta. «Αυτό το έργο είναι μεγαλύτερο από οποιαδήποτε εταιρεία και θα απαιτήσει τεράστια προσπάθεια από τη βιομηχανία, την κυβέρνηση και την κοινωνία των πολιτών».
Ο Μπραντ Σμιθ, της Microsoft, πρόσθεσε ότι οι εταιρείες έχουν «την ευθύνη να βοηθήσουν να διασφαλίσουν ότι αυτά τα εργαλεία δεν θα οπλιστούν στις εκλογές».
Εντονες ανησυχίες
Η συμφωνία έρχεται στο πλαίσιο της κλιμάκωσης των ανησυχιών μεταξύ νομοθετών και εμπειρογνωμόνων σχετικά με το ενδεχόμενο η τεχνητή νοημοσύνη να θέσει σε κίνδυνο τις εκλογές υψηλού προφίλ που πρόκειται να διεξαχθούν φέτος, συμπεριλαμβανομένων των ΗΠΑ, του Ηνωμένου Βασιλείου, της Ευρωπαϊκής Ένωσης αλλά και της Ινδίας.
Οι εταιρείες τεχνολογίας που διαχειρίζονται μεγάλες πλατφόρμες μέσων κοινωνικής δικτύωσης, όπως το Facebook, το X και το TikTok, αντιμετωπίζουν εξονυχιστικό έλεγχο εδώ και χρόνια σχετικά με την ύπαρξη επιβλαβούς περιεχομένου στους ιστότοπούς τους και τον τρόπο με τον οποίο την αντιμετωπίζουν.
Ωστόσο, η έκρηξη του ενδιαφέροντος και η διαθεσιμότητα των παραγωγικών εργαλείων τεχνητής νοημοσύνης έχουν τροφοδοτήσει ανησυχίες σχετικά με το πώς η τεχνολογία θα μπορούσε να υπονομεύσει ιδιαίτερα τις εκλογές.
Συνεργασία
Οι 20 εταιρείες τεχνολογίας που υπέγραψαν τη συμφωνία της Παρασκευής δήλωσαν ότι θα συνεργαστούν για την εξάλειψη της εξάπλωσης επιβλαβούς περιεχομένου τεχνητής νοημοσύνης που σχετίζεται με τις εκλογές στις πλατφόρμες τους και θα αναλάβουν δράση με «ταχείς και αναλογικούς» τρόπους.
Οι εταιρείες δεσμεύτηκαν επίσης να είναι διαφανείς σχετικά με τον τρόπο με τον οποίο αντιμετωπίζουν τέτοιο παραπλανητικό περιεχόμενο και δεσμεύτηκαν ότι θα αξιολογήσουν τα παραγωγικά μοντέλα τεχνητής νοημοσύνης τους – όπως αυτά πίσω από το chatbot ChatGPT του OpenAI – για να κατανοήσουν καλύτερα τους κινδύνους που σχετίζονται με τις εκλογές.
Η συμφωνία είναι η πιο πρόσφατη σε μια σειρά εθελοντικών δεσμεύσεων γύρω από την τεχνητή νοημοσύνη που έχουν αναλάβει οι Big Tech εταιρείες τους τελευταίους μήνες. Πέρυσι, ομάδες συμπεριλαμβανομένων των OpenAI, Google DeepMind και Meta συμφώνησαν να ανοίξουν τα παραγωγικά μοντέλα τεχνητής νοημοσύνης τους για έλεγχο από το Ινστιτούτο Ασφάλειας AI της Βρετανίας.
Αυτόν τον μήνα, ως μέρος της βιομηχανικής πρωτοβουλίας του Coalition for Content Provenance and Authenticity, η Google δήλωσε ότι «διερευνά ενεργά» εάν θα μπορούσε να αναπτύξει εργαλεία υδατογράφησης που έδειχναν πώς δημιουργήθηκε μια εικόνα.
Η Meta είπε επίσης τον Φεβρουάριο ότι θα αρχίσει να επισημαίνει τις εικόνες που δημιουργούνται από AI που δημοσιεύουν οι χρήστες στο Facebook, το Instagram και το Threads «τους επόμενους μήνες». Ο.Τ.
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου