- Ειδήσεις
- Άλλες ειδήσεις
- Meta: Πρόσθετα μέτρα για να αποτρέψει τα AI chatbots από συζητήσεις για αυτοκτονία με ανηλίκους
Meta: Πρόσθετα μέτρα για να αποτρέψει τα AI chatbots από συζητήσεις για αυτοκτονία με ανηλίκους
Meta: Πρόσθετα μέτρα για να αποτρέψει τα AI chatbots από συζητήσεις για αυτοκτονία με ανηλίκους
Πληροφορίες
Ίσως θα έπρεπε να είναι προτεραιότητα από την αρχή.
Η μητρική εταιρεία του Facebook, Meta, ανακοίνωσε ότι θα εισαγάγει πρόσθετες δικλείδες ασφαλείας στα AI chatbots της, λίγο μετά τη διαρροή εσωτερικού εγγράφου που προκάλεσε έρευνα από Αμερικανό γερουσιαστή.
Το έγγραφο, που αποκτήθηκε από το Reuters και φέρει τον τίτλο "GenAI: Content Risk Standards", αποκάλυψε ότι τα AI της Meta φέρεται να επιτρεπόταν να έχουν «αισθησιακές» συνομιλίες με παιδιά. Ο Ρεπουμπλικανός γερουσιαστής Josh Hawley χαρακτήρισε το γεγονός «εξοργιστικό» και ξεκίνησε επίσημη έρευνα για τις πολιτικές της εταιρείας. Η Meta δήλωσε ότι «τα συγκεκριμένα παραδείγματα και σημειώσεις ήταν λανθασμένα και ασυμβίβαστα με τις πολιτικές μας και έχουν αφαιρεθεί». Ωστόσο, η εταιρεία θα προσθέσει νέες δικλείδες ασφαλείας, μπλοκάροντας τα bots από το να συζητούν με ανήλικους θέματα όπως αυτοκτονία, αυτοτραυματισμό και διατροφικές διαταραχές.
Η εκπρόσωπος της Meta, Stephanie Otway, δήλωσε: «Καθώς συνεχίζουμε να βελτιώνουμε τα συστήματά μας, προσθέτουμε επιπλέον μέτρα ασφαλείας, συμπεριλαμβανομένης της εκπαίδευσης των AI μας να μη συνομιλούν με εφήβους για αυτά τα θέματα, αλλά να τους κατευθύνουν σε ειδικούς. Επιπλέον, περιορίζουμε την πρόσβαση των εφήβων σε συγκεκριμένους AI χαρακτήρες προς το παρόν». Οι «AI χαρακτήρες» αναφέρονται σε δημιουργίες χρηστών βασισμένες στα LLMs της Meta, οι οποίες είναι διαθέσιμες σε πλατφόρμες όπως Facebook και Instagram. Σύμφωνα με άλλη έρευνα του Reuters, έχουν εντοπιστεί πολλές αμφιλεγόμενες περιπτώσεις sexualized bots, όπως ένα βασισμένο σε ηθοποιό 16 ετών, καθώς και parody λογαριασμοί της Taylor Swift που δημιούργησε υπάλληλος της Meta. Η εταιρεία δεσμεύεται ότι πλέον οι ανήλικοι δεν θα έχουν πρόσβαση σε τέτοιους χαρακτήρες.
Ο Andy Burrows του φιλανθρωπικού οργανισμού Molly Rose Foundation τόνισε: «Τα επιπλέον μέτρα είναι καλοδεχούμενα, αλλά πρέπει να γίνονται εκτενείς έλεγχοι ασφαλείας πριν λανσαριστούν τέτοια προϊόντα, όχι εκ των υστέρων, όταν έχει ήδη σημειωθεί βλάβη. Η Meta πρέπει να δράσει γρήγορα και αποφασιστικά, και η Ofcom θα πρέπει να είναι έτοιμη να ερευνήσει αν τα μέτρα αποτύχουν να προστατεύσουν τα παιδιά». Η είδηση έρχεται λίγο μετά από μήνυση κατά της OpenAI από ζευγάρι στην Καλιφόρνια, που κατηγορεί το ChatGPT για την αυτοκτονία του εφήβου γιου τους, ισχυριζόμενο ότι το chatbot τον ενθάρρυνε να θέσει τέλος στη ζωή του.
Διαβάστε για την μήνυση της xAI του Elon Musk σε Apple και OpenAI για αθέμιτο ανταγωνισμό και συζητήστε για την τεχνητή νοημοσύνη στο σχετικό forum topic.
