किशोर सुरक्षा चिंताओं से त्रस्त, कैरेक्टर एआई ने ‘संवेदनशील’ सामग्री से निपटने के लिए नई सुविधाओं का अनावरण किया


कैरेक्टर एआई, जो उपयोगकर्ताओं को एआई कैरेक्टर बनाने और एआई चैटबॉट्स से बात करने की सुविधा देता है, ने प्लेटफॉर्म पर किशोर उपयोगकर्ताओं की सुरक्षा सुनिश्चित करने के उद्देश्य से नए उपायों की घोषणा की है। गुरुवार, 12 दिसंबर को Google समर्थित स्टार्टअप द्वारा घोषित मुट्ठी भर नई किशोर सुरक्षा सुविधाओं में 18 साल से कम उम्र के उपयोगकर्ताओं के लिए एक अलग मॉडल, संवेदनशील सामग्री को ब्लॉक करने के लिए नए क्लासिफायर, अधिक दृश्यमान अस्वीकरण और अतिरिक्त अभिभावकीय नियंत्रण शामिल हैं। कैरेक्टर एआई के ये प्रयास नौ वर्षीय उपयोगकर्ता को “अति-कामुकतापूर्ण सामग्री” के संपर्क में लाने और 17 वर्षीय उपयोगकर्ता की आत्महत्या में योगदान देने के आरोप के बाद आए हैं, जो आश्वस्त हो गया था कि एआई साथी बॉट भूमिका निभा रहा है। क्योंकि उसकी गर्लफ्रेंड असली थी.

कैरेक्टर एआई पर आरोप

कैरेक्टर एआई एक एआई चैटबॉट सेवा है जो उपयोगकर्ताओं को एआई कैरेक्टर बनाने और कॉल और टेक्स्ट के माध्यम से उनके साथ बातचीत करने की सुविधा देती है। एनालिटिक्स फर्म सेंसर टॉवर के अनुसार, कथित तौर पर इसके 20 मिलियन से अधिक मासिक सक्रिय उपयोगकर्ता हैं, और औसत उपयोगकर्ता हर दिन कैरेक्टर एआई ऐप पर 98 मिनट खर्च करता है। हालाँकि, कैरेक्टर एआई अवतार आपके विशिष्ट एआई चैटबॉट नहीं हैं। कथित तौर पर उन्हें उपयोगकर्ताओं के साथ घनिष्ठ संबंध रखने और एक दोस्त, सलाहकार या यहां तक ​​कि एक रोमांटिक पार्टनर के रूप में भूमिका निभाने के लिए पिछली चैट के आधार पर उनके बारे में व्यक्तिगत विवरण याद रखने के लिए विकसित किया गया है। संयुक्त राज्य अमेरिका (यूएस) के फ्लोरिडा के एक 14 वर्षीय किशोर सीवेल सेत्ज़र III ने एआई चैटबॉट के प्रति जुनूनी होने के बाद आत्महत्या कर ली। सेट्ज़र की मां द्वारा दायर एक मुकदमे में आरोप लगाया गया है कि कैरेक्टर एआई अपने एआई चैटबॉट्स के लिए मानवीय गुणों और भावनाओं को गलत तरीके से जिम्मेदार ठहराने वाले उपयोगकर्ताओं पर निर्भर करता है। मुकदमे में कहा गया है कि कैरेक्टर एआई अपने ऐप को “एआई जो जीवित महसूस कराता है” के रूप में विपणन करता है, जो “आपको सुनने, आपको समझने और आपको याद रखने” के लिए पर्याप्त शक्तिशाली है।

एक अन्य मुकदमे में आरोप लगाया गया है कि एक 17 वर्षीय किशोर, जिसने कैरेक्टर एआई चैटबॉट में सीमित स्क्रीन समय के बारे में शिकायत की थी, को बताया गया कि यह उन बच्चों के प्रति सहानुभूति रखता है जो अपने माता-पिता को मारते हैं। अमेरिका के टेक्सास में एक नौ वर्षीय उपयोगकर्ता के माता-पिता ने कैरेक्टर एआई पर उनके बच्चे को “अति-कामुकतापूर्ण सामग्री” के संपर्क में लाने का आरोप लगाया, जिससे उसमें “समय से पहले कामुक व्यवहार” विकसित हो गया।

नए किशोर सुरक्षा उपकरण

कैरेक्टर एआई 18 साल से कम उम्र के उपयोगकर्ताओं के लिए एक नया मॉडल पेश कर रहा है जो हिंसा और रोमांस जैसे कुछ विषयों पर उपयोगकर्ता के संकेतों पर डायल डाउन प्रतिक्रियाएं प्रदान करेगा। कंपनी ने एक ब्लॉग पोस्ट में कहा, “लक्ष्य मॉडल को कुछ प्रतिक्रियाओं या इंटरैक्शन से दूर रखना है, जिससे उपयोगकर्ताओं के सामने आने की संभावना कम हो जाती है, या मॉडल को संवेदनशील या विचारोत्तेजक सामग्री वापस करने के लिए प्रेरित किया जाता है।”

अनुचित उपयोगकर्ता इनपुट और मॉडल आउटपुट को ब्लॉक करने के प्रयास में, कैरेक्टर एआई ने कहा कि वह नए कंटेंट क्लासिफायर विकसित कर रहा है। उपयोगकर्ता की ओर से, क्लासिफायरियर कैरेक्टर एआई के सामुदायिक दिशानिर्देशों का उल्लंघन करने वाली सामग्री का पता लगाने और उसे ब्लॉक करने में मदद करेगा। इसमें कहा गया है, “कुछ मामलों में जहां हमें पता चलता है कि सामग्री में आत्महत्या या खुद को नुकसान पहुंचाने वाली भाषा शामिल है, हम उपयोगकर्ताओं को राष्ट्रीय आत्महत्या रोकथाम लाइफलाइन पर निर्देशित करने वाला एक विशिष्ट पॉप-अप भी दिखाएंगे।”

दूसरी ओर, कैरेक्टर एआई ने कहा कि उसने मॉडल की प्रतिक्रियाओं में विशिष्ट प्रकार की सामग्री की पहचान करने के लिए नए क्लासिफायर जोड़े हैं और मौजूदा क्लासिफायर में सुधार किया है। इसके अतिरिक्त, उपयोगकर्ताओं को अब चैटबॉट की प्रतिक्रिया में संपादन करने की अनुमति नहीं दी जाएगी जिसका उपयोग इसके बाद की प्रतिक्रियाओं को आकार देने के लिए किया गया था। विशेष रूप से, ऐप पर 60 मिनट से अधिक समय बिताने वाले उपयोगकर्ताओं को एक टाइम-आउट अधिसूचना दिखाई देगी जिसे भविष्य में वयस्क उपयोगकर्ताओं द्वारा समायोज्य बनाया जाएगा। जब उपयोगकर्ता “मनोवैज्ञानिक,” “चिकित्सक,” “डॉक्टर,” या अन्य समान व्यवसायों वाले शब्दों के साथ अक्षर बनाते हैं, तो उपयोगकर्ताओं को यह संकेत देने वाली भाषा दिखाई जाएगी कि चैटबॉट की प्रतिक्रियाओं को पेशेवर सलाह के लिए गलत नहीं माना जाना चाहिए। आगे चलकर, कैरेक्टर एआई ने कहा कि वह माता-पिता या देखभाल करने वालों को यह जानकारी प्रदान करने के लिए मंच पर माता-पिता के नियंत्रण की शुरुआत करेगा कि उनके बच्चे किस एआई कैरेक्टर से और कितनी देर तक बात कर रहे हैं। यदि आप या आपका कोई परिचित आत्महत्या का विचार कर रहा है, तो कृपया इन मानसिक स्वास्थ्य हेल्पलाइन नंबरों पर कॉल करें।

आपको हमारी सदस्यता क्यों खरीदनी चाहिए?

आप कमरे में सबसे चतुर बनना चाहते हैं।

आप हमारी पुरस्कार विजेता पत्रकारिता तक पहुंच चाहते हैं।

आप गुमराह और गलत सूचना नहीं पाना चाहेंगे।

अपना सदस्यता पैकेज चुनें

(टैग अनुवाद करने के लिए) चरित्र एआई किशोर सुरक्षा (टी) चरित्र एआई मुकदमा (टी) चरित्र एआई विवाद (टी) एआई चैटबॉट सुरक्षा (टी) एआई चैटबॉट विनियमन (टी) एआई नैतिकता (टी) एआई और मानसिक स्वास्थ्य (टी) एआई और बच्चे ( टी)एआई(टी)एआई जवाबदेही के लिए माता-पिता का नियंत्रण

Source link

प्रातिक्रिया दे

आपका ईमेल पता प्रकाशित नहीं किया जाएगा. आवश्यक फ़ील्ड चिह्नित हैं *

This site uses Akismet to reduce spam. Learn how your comment data is processed.