चीन : फर्जी खबर बनाने के लिए ChatGPT का इस्तेमाल, OpenAI का दावा; बैन किए कई अकाउंट्स

ChatGPt-OpenAI-China-Fraud

नई दिल्ली : OpenAI ने एक चौंकाने वाला खुलासा करते हुए कहा है कि चीन सरकार से जुड़े समूहों द्वारा ChatGPT जैसे AI टूल्स का दुनियाभर में गलत सूचना फैलाने और छिपे हुए प्रभाव अभियानों के लिए दुरुपयोग किया जा रहा है। एक रिपोर्ट में कंपनी ने बताया कि उसने पिछले तीन महीनों में ऐसे कई अभियानों को बाधित किया और इससे जुड़ी कई फर्जी अकाउंट्स को बैन भी किया।

OpenAI की इंटेलिजेंस टीम के प्रमुख अन्वेषक बेन निमो ने कहा, “हम चीन से आने वाले गुप्त अभियानों में लगातार विविधता और नई रणनीतियां देख रहे हैं।” रिपोर्ट में कहा गया कि चार अलग-अलग अभियानों की पहचान की गई है, जो संभवतः चीन समर्थित थे और जिनका मकसद अलग-अलग था, लेकिन सभी ने ChatGPT का उपयोग कंपनी की नीतियों के खिलाफ किया।

‘Sneer Review’ अभियान की पोल खुली : एक अभियान जिसका नाम ‘Sneer Review’ रखा गया है, ने ChatGPT का इस्तेमाल TikTok, X (पूर्व में ट्विटर), Reddit और Facebook जैसे प्लेटफॉर्म्स पर फर्जी टिप्पणियां और बहसें करने के लिए किया। इनका उद्देश्य दिखावटी “जैविक” (organic) चर्चा उत्पन्न करना था जैसे किसी ताइवान स्थित वीडियो गेम की आलोचना करना या अमेरिका की यूएसएआईडी (USAID) एजेंसी के बंद होने पर मिलेजुले विचार रखना। ये अभियान मुख्य पोस्ट के साथ-साथ प्रतिक्रियाएं भी खुद बनाता था, ताकि यह लगे कि असली लोग चर्चा कर रहे हैं।

अंदरूनी मूल्यांकन भी ChatGPT से : एक और चौंकाने वाली बात यह सामने आई कि इन अभियानों के आंतरिक रिपोर्ट और प्रदर्शन समीक्षा भी ChatGPT से ही तैयार करवाई गई थीं यानी अभियान को कैसे चलाया गया, यह खुद AI से दस्तावेज के रूप में बनवाया गया। OpenAI ने बताया कि इन अभियानों में अमेरिकी राजनीतिक विषयों, जैसे पूर्व राष्ट्रपति डोनाल्ड ट्रंप की ट्रेड टैरिफ नीतियों की आलोचना करने वाली टिप्पणियों को भी AI से तैयार किया गया।

साइबर गतिविधियों में AI की भूमिका : AI का उपयोग केवल सोशल मीडिया तक सीमित नहीं था। रिपोर्ट के अनुसार, ChatGPT का इस्तेमाल साइबर अभियानों में भी हुआ जैसे स्क्रिप्ट बदलना, सिस्टम कॉन्फिगर करना और ब्रूट-फोर्सिंग टूल बनाना। इसके अलावा, फर्जी पत्रकारों या विश्लेषकों के रूप में पहचान छिपाकर असली यूजर्स से बातचीत करके जानकारी इकट्ठा करने की भी कोशिशें की गईं।

एक मामले में, अमेरिकी सीनेटर की बातचीत से संबंधित संचार में AI-जनित कंटेंट का प्रयोग हुआ, हालांकि OpenAI इस बात की पुष्टि नहीं कर सका कि वह संदेश वास्तव में भेजा गया या नहीं। OpenAI ने साफ किया है कि वह ऐसे अभियानों के खिलाफ सख्त कार्रवाई कर रहा है और अपने टूल्स के दुरुपयोग को रोकने के लिए लगातार निगरानी और सुरक्षा उपायों को बेहतर बना रहा है।

Leave a Reply

Your email address will not be published. Required fields are marked *