इलॉन मस्क के X ने ग्रोक AI द्वारा असली लोगों की अश्लील तस्वीरें बनाने पर विश्वव्यापी प्रतिबंध लगा दिया है। यह निर्णय AI-संचालित चैटबॉट के माध्यम से महिलाओं और बच्चों की तस्वीरों के दुरुपयोग की शिकायतों के बाद लिया गया है। अब यूजर्स इस टूल का उपयोग कर किसी भी वास्तविक व्यक्ति की आपत्तिजनक या कम कपड़ों में दिखाने वाली तस्वीरें नहीं बना पाएंगे। यह प्रतिबंध पेड और अनपेड दोनों प्रकार के यूजर्स पर लागू होगा।
X के सेफ्टी अकाउंट ने गुरुवार को इस बदलाव की घोषणा करते हुए बताया कि तकनीकी स्तर पर ऐसे सुधार किए गए हैं, जिससे ग्रोक अब असली लोगों की बिना कपड़ों वाली तस्वीरें नहीं बना सकेगा। बिकिनी जैसे कपड़ों वाली एडिटिंग पर भी पूरी तरह रोक लगा दी गई है। कंपनी का कहना है कि यह कदम निजता के उल्लंघन को रोकने और प्लेटफॉर्म के दुरुपयोग को कम करने के लिए उठाया गया है।
महिलाओं की शिकायतों के बाद शुरू हुई जांच में पता चला कि पिछले साल दिसंबर में कई महिलाओं ने X पर शिकायत दर्ज कराई थी कि उनकी तस्वीरें ग्रोक AI से सेक्शुअल इमेज बनाने के लिए इस्तेमाल हो रही हैं। इसके बाद IT मंत्रालय की साइबर लॉ डिवीजन ने X को IT रूल्स 2021 के तहत संबंधित कंटेंट हटाने के निर्देश दिए। दरअसल, कुछ यूजर्स X पर फर्जी अकाउंट बनाकर महिलाओं की तस्वीरों का दुरुपयोग कर रहे थे।
ग्रोक द्वारा अश्लील इमेज निर्माण पर वैश्विक प्रतिबंध: महिलाओं और बच्चों की तस्वीरों के दुरुपयोग के बाद लिया गया फैसला; भारत में 3,500 से अधिक फोटो हटाए गए
By worldprime
On: जनवरी 15, 2026 4:33 अपराह्न
---Advertisement---











