
Τεχνητή Νοημοσύνη: «Κενά ασφαλείας» οδηγούν στη σεξουαλικοποίηση παιδιών στο διαδίκτυο – Τι λένε οι εταιρείες
«Κενά στις δικλείδες ασφαλείας» του chatbot Τεχνητής Νοημοσύνης του Έλον Μασκ (Elon Musk), με την ονομασία Grok, οδήγησαν στη δημιουργία σεξουαλικής φύσεως εικόνες με ανήλικους, οι οποίες δημοσιεύτηκαν στον ιστότοπο κοινωνικής δικτύωσης X, σύμφωνα με σχετική ανακοίνωση.
Ειδικότερα, το Grok δημιούργησε εικόνες ανηλίκων με ελάχιστα ρούχα, μετά από προτροπή χρηστών τις τελευταίες ημέρες, παραβιάζοντας την δική του πολιτική αποδεκτής χρήσης, η οποία απαγορεύει τη σεξουαλικοποίηση παιδιών, ανέφερε το chatbot σε μια σειρά αναρτήσεων στο X αυτή την εβδομάδα σε απάντηση σε ερωτήματα χρηστών.
Οι προσβλητικές εικόνες αφαιρέθηκαν, πρόσθεσε.
«Έχουμε εντοπίσει κενά στις δικλείδες ασφαλείας και τα διορθώνουμε άμεσα», έγραψε ο Grok την Παρασκευή, προσθέτοντας ότι το υλικό σεξουαλικής κακοποίησης παιδιών είναι «παράνομο και απαγορευμένο».
Το φαινόμενο εξελίσσεται σε «μάστιγα»
Σύμφωνα με το Bloomberg, η άνοδος των εργαλείων Τεχνητής Νοημοσύνης που μπορούν να δημιουργήσουν ρεαλιστικές εικόνες γυμνών ανηλίκων, υπογραμμίζει τις προκλήσεις της εποπτείας περιεχομένου και των συστημάτων ασφαλείας που είναι ενσωματωμένα σε μεγάλα γλωσσικά μοντέλα που δημιουργούν εικόνες.
Ακόμη και εργαλεία που ισχυρίζονται ότι προστατεύονται, μπορούν να χειραγωγηθούν, επιτρέποντας τον πολλαπλασιασμό υλικού που έχει ανησυχήσει τους υποστηρικτές της ασφάλειας των παιδιών.
Μάλιστα, το Internet Watch Foundation, ένας μη κερδοσκοπικός οργανισμός που εντοπίζει υλικό σεξουαλικής κακοποίησης παιδιών στο διαδίκτυο, ανέφερε αύξηση 400% σε τέτοιες εικόνες που δημιουργούνται από Τεχνητή Νοημοσύνη τους πρώτους έξι μήνες του 2025.
Η εταιρεία xAI, έχει αναφέρει το Grok ως το πιο δημοφιλές από άλλα mainstream μοντέλα Τεχνητής Νοημοσύνης, ενώ το περασμένο καλοκαίρι εισήγαγε μια λειτουργία που ονομάζεται «Spicy Mode» που επιτρέπει μερικό γυμνό ενηλίκων και σεξουαλικά υπονοούμενο περιεχόμενο.
Η υπηρεσία απαγορεύει την πορνογραφία που περιλαμβάνει μοντέλα πραγματικών ανθρώπων και σεξουαλικό περιεχόμενο που αφορά ανηλίκους, η δημιουργία ή η διανομή του οποίου είναι παράνομη.
Οι εκπρόσωποι της xAI, της εταιρείας που αναπτύσσει το Grok και διαχειρίζεται το X, δεν απάντησαν αμέσως σε αίτημα του Bloomberg για σχολιασμό.
Οι πολιτικές των εταιρειών
Ωστόσο, καθώς η δημιουργία εικόνων με Τεχνητή Νοημοσύνη έχει γίνει πιο δημοφιλής, οι κορυφαίες εταιρείες πίσω από τα εργαλεία έχουν δημοσιεύσει πολιτικές σχετικά με τις απεικονίσεις ανηλίκων.
Η OpenAI απαγορεύει οποιοδήποτε υλικό που σεξουαλικοποιεί παιδιά κάτω των 18 ετών και απαγορεύει σε οποιονδήποτε χρήστη να επιχειρεί να δημιουργήσει ή να ανεβάσει τέτοιο υλικό.
Η Google έχει θεσπίσει παρόμοιες πολιτικές που απαγορεύουν «οποιαδήποτε τροποποιημένη εικόνα αναγνωρίσιμου ανηλίκου που εμπλέκεται σε σεξουαλικά άσεμνη συμπεριφορά».
Η Black Forest Labs, μια startup Tεχνητής Nοημοσύνης που έχει συνεργαστεί στο παρελθόν με τo X, είναι μεταξύ των πολλών εταιρειών ΑΙ που διατείνονται ότι φιλτράρουν εικόνες κακοποίησης και εκμετάλλευσης παιδιών από τα σύνολα δεδομένων που χρησιμοποιούνται για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης.
Σημειώνεται ότι το 2023, οι ερευνητές διαπίστωσαν ότι ένα τεράστιο δημόσιο σύνολο δεδομένων που χρησιμοποιήθηκε για τη δημιουργία δημοφιλών εικόνων Τεχνητής Νοημοσύνης περιείχε τουλάχιστον 1.008 περιπτώσεις υλικού σεξουαλικής κακοποίησης παιδιών.
Την ίδια στιγμή, αρκετές εταιρείες έχουν δεχθεί κριτική για την αδυναμία τους να προστατεύσουν τους ανηλίκους από σεξουαλικό περιεχόμενο.
Η Meta Platforms δήλωσε το καλοκαίρι ότι ανανεώνει τις πολιτικές της, μετά από δημοσίευμα του Reuters που διαπίστωσε ότι οι εσωτερικοί κανόνες της εταιρείας επιτρέπουν στο chatbot της να διεξάγει ρομαντικές και αισθησιακές συζητήσεις με παιδιά.
Το Ίδρυμα Παρακολούθησης Διαδικτύου (Internet Watch Foundation) δήλωσε ότι οι εικόνες σεξουαλικής κακοποίησης παιδιών που παράγονται από την Τεχνητή Νοημοσύνη έχουν εξελιχθεί με «τρομακτικό» ρυθμό, με το υλικό να γίνεται πιο ρεαλιστικό και ακραίο.
Σε πολλές περιπτώσεις, τα εργαλεία χρησιμοποιούνται για την ψηφιακή αφαίρεση ρούχων από ένα παιδί ή νεαρό άτομο, προκειμένου να δημιουργηθεί μια σεξουαλικοποιημένη εικόνα, ανέφερε το Internet Watch Foundation.
Πηγή: www.mononews.gr





















