Μέτωπο TikTok, Snapchat και Stability κατά των εικόνων κακοποίησης παιδιών που δημιουργούνται από AΙ

Μέτωπο TikTok, Snapchat και Stability κατά των εικόνων κακοποίησης παιδιών που δημιουργούνται από AΙ

Στοιχεία από το Internet Watch Foundation δείχνουν ότι σε ένα dark web forum οι χρήστες είχαν μοιραστεί σχεδόν 3.000 εικόνες που δημιουργούσε υλικό σεξουαλικής κακοποίησης παιδιών με τεχνητή νοημοσύνη

Οι εταιρείες τεχνολογίας, συμπεριλαμβανομένων των TikTok, Snapchat και Stability AI, υπέγραψαν κοινή δήλωση με την οποία δεσμεύονται να συνεργαστούν για την αντιμετώπιση των εικόνων σεξουαλικής κακοποίησης παιδιών που δημιουργούνται από την τεχνητή νοημοσύνη.

Η Βρετανία ανακοίνωσε την κοινή δήλωση -η οποία επίσης απαριθμούσε τις Ηνωμένες Πολιτείες, τη Γερμανία και την Αυστραλιανή κυβέρνηση μεταξύ των 27 υπογραφόντων της - σε εκδήλωση τη Δευτέρα που πραγματοποιήθηκε εν όψει της παγκόσμιας συνόδου κορυφής που θα φιλοξενήσει το Ηνωμένο Βασίλειο για την ασφάλεια της τεχνητής νοημοσύνης αυτή την εβδομάδα.


«Αποφασίζουμε να διατηρήσουμε τον διάλογο και την τεχνική καινοτομία γύρω από την αντιμετώπιση της σεξουαλικής κακοποίησης παιδιών στην εποχή της τεχνητής νοημοσύνης», αναφέρεται στην ανακοίνωση.

«Αποφασίζουμε να συνεργαστούμε για να διασφαλίσουμε ότι χρησιμοποιούμε υπεύθυνη τεχνητή νοημοσύνη για την αντιμετώπιση της απειλής της σεξουαλικής κακοποίησης παιδιών και δεσμευόμαστε να συνεχίσουμε να εργαζόμαστε συλλογικά για να διασφαλίσουμε ότι οι κίνδυνοι που ενέχει η τεχνητή νοημοσύνη για την αντιμετώπιση της σεξουαλικής κακοποίησης παιδιών δεν θα γίνουν ανυπέρβλητοι».

Η Βρετανία επικαλέστηκε στοιχεία από το Internet Watch Foundation που δείχνουν ότι σε ένα σκοτεινό φόρουμ ιστού οι χρήστες είχαν μοιραστεί σχεδόν 3.000 εικόνες που δημιουργούσε υλικό σεξουαλικής κακοποίησης παιδιών με τεχνητή νοημοσύνη.


«Είναι σημαντικό, τώρα, να δώσουμε το παράδειγμα και να εξαλείψουμε την κατάχρηση αυτής της αναδυόμενης τεχνολογίας προτού έχει την ευκαιρία να ριζώσει πλήρως», δήλωσε η διευθύνουσα σύμβουλος της IWF, Σούζι Χάργκρειβς.

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ