Ο Λευκός Οίκος κυκλοφόρησε α σήμερα περιγράφοντας τις δεσμεύσεις που αναλαμβάνουν αρκετές εταιρείες τεχνητής νοημοσύνης για να περιορίσουν τη δημιουργία και τη διανομή σεξουαλικής κακοποίησης βάσει εικόνας. Οι συμμετέχουσες επιχειρήσεις έχουν παρουσιάσει τα βήματα που λαμβάνουν για να αποτρέψουν τη χρήση των πλατφορμών τους για τη δημιουργία μη συναινετικών εικόνων (NCII) ενηλίκων και υλικού σεξουαλικής κακοποίησης παιδιών (CSAM).
Συγκεκριμένα, οι Adobe, Anthropic, Cohere, Common Crawl, Microsoft και OpenAI δήλωσαν ότι θα είναι:
Όλα τα προαναφερθέντα εκτός από το Common Crawl συμφώνησαν επίσης ότι θα ήταν:
-
«ενσωματώνοντας βρόχους ανατροφοδότησης και επαναληπτικές στρατηγικές προσομοίωσης άγχους στις διαδικασίες ανάπτυξής τους, για προστασία από μοντέλα τεχνητής νοημοσύνης που εξάγουν σεξουαλική κακοποίηση βάσει εικόνας».
-
Και “αφαίρεση γυμνών εικόνων από σύνολα δεδομένων εκπαίδευσης AI” όταν χρειάζεται.
Είναι μια εθελοντική δέσμευση, επομένως η σημερινή ανακοίνωση δεν δημιουργεί νέα βήματα ή συνέπειες για την αποτυχία τήρησης αυτών των υποσχέσεων. Ωστόσο, αξίζει να επικροτήσουμε μια καλή τη πίστη προσπάθεια για την αντιμετώπιση αυτού του σοβαρού προβλήματος. Οι αξιοσημείωτες απουσίες από τη σημερινή κυκλοφορία του Λευκού Οίκου είναι οι Apple, Amazon, Google και Meta.
Πολλές μεγάλες εταιρείες τεχνολογίας και τεχνητής νοημοσύνης έχουν κάνει βήματα για να διευκολύνουν τα θύματα του NCII να σταματήσουν τη διάδοση των deepfake εικόνων και βίντεο ξεχωριστά από αυτήν την ομοσπονδιακή προσπάθεια. Το StopNCII έχει με μια ολοκληρωμένη προσέγγιση για τον καθαρισμό αυτού του περιεχομένου, ενώ άλλες επιχειρήσεις αναπτύσσουν ιδιόκτητα εργαλεία για την αναφορά σεξουαλικής κακοποίησης που βασίζεται σε εικόνες που δημιουργείται από AI στις πλατφόρμες τους.
Εάν πιστεύετε ότι έχετε πέσει θύμα μη συναινετικής οικείας κοινής χρήσης εικόνων, μπορείτε να ανοίξετε μια υπόθεση με το StopNCII ; εάν είστε κάτω των 18 ετών, μπορείτε να υποβάλετε μια αναφορά στο NCMEC .
VIA: engadget.com