क्या AI फेक न्यूज का पता लगा सकता है?

लेखक: Laura McKinney
निर्माण की तारीख: 4 अप्रैल 2021
डेट अपडेट करें: 1 जुलाई 2024
Anonim
[4K] - How technology can detect Fake News
वीडियो: [4K] - How technology can detect Fake News

विषय


स्रोत: मस्त ३ आर / ड्रीमस्टाइम डॉट कॉम

ले जाओ:

फर्जी खबरों का मुकाबला करने के लिए शोधकर्ता एआई की ओर रुख कर रहे हैं। लेकिन क्या यह वास्तव में मदद कर सकता है, या यह सिर्फ चीजों को बदतर बना देगा?

आगामी राष्ट्रपति चुनाव के पक्ष में एक बड़ी खबर की उम्मीद की जा रही है कि फेक खबरें सामान्य तौर पर हमारे सार्वजनिक प्रवचन पर इसके समग्र संक्षारक प्रभाव का उल्लेख नहीं करेंगी। आज के जुड़े समाज में, कथा से समझदार तथ्य तेजी से मुश्किल हो गया है, यही वजह है कि कुछ शोधकर्ता इस समस्या को दूर करने के लिए कृत्रिम बुद्धि की शक्ति पर ध्यान केंद्रित करना शुरू कर रहे हैं।

आशा है, ज़ाहिर है, मशीनों, या अधिक सटीक एल्गोरिदम, झूठ बोलने वाले स्थान पर मनुष्यों की तुलना में बेहतर होगा। लेकिन क्या यह एक यथार्थवादी उम्मीद है, या प्रतीत होता है कि अडिग समस्या पर प्रौद्योगिकी फेंकने का सिर्फ एक और मामला है?

चोर पकड़ने के लिए। । ।

डेटा वैज्ञानिकों में से एक इस क्षेत्र में एआई की गति को तेज करने की योजना बना रहा है, जिससे यह नकली समाचार उत्पन्न करने की अनुमति देता है। वाशिंगटन विश्वविद्यालय में एआई के लिए एलन इंस्टीट्यूट ने ग्रोवर को विकसित और सार्वजनिक रूप से जारी किया है, जो एक प्राकृतिक भाषा प्रसंस्करण इंजन है जिसे विभिन्न विषयों पर झूठी कहानियां बनाने के लिए डिज़ाइन किया गया है। हालांकि यह पहली बार उल्टा लग सकता है, यह वास्तव में एक सामान्य एआई प्रशिक्षण रणनीति है जिसमें एक मशीन दूसरे के उत्पादन का विश्लेषण करती है। इस तरह, वास्तविक नकली समाचारों पर भरोसा करने की तुलना में एनालिटिक्स पक्ष को बहुत तेज गति से लाया जा सकता है। संस्थान का दावा है कि ग्रोवर पहले से ही 92% सटीकता की रेटिंग पर काम कर सकता है, लेकिन यह ध्यान रखना महत्वपूर्ण है कि यह केवल एआई-जेनरेट की गई सामग्री बनाम मानव-निर्मित सामग्री के बीच अंतर करने में माहिर है, जिसका अर्थ है कि एक स्मार्ट व्यक्ति अभी भी एक झूठी कहानी चुपके से ले सकता है पिछला वो। (फेक न्यूज से लड़ने के लिए टेक्नॉलॉजीज को और जानने के लिए।)


सही हाथों में, निश्चित रूप से, ग्रोवर जल्दी से हमारी समझ को आगे बढ़ा सकते हैं कि कैसे नकली समाचार बनाया जाता है और यह कैसे फैलता है, और यह सैद्धांतिक रूप से वास्तविक दुनिया में इसे विफल करने के लिए इस्तेमाल किया जा सकता है। लेकिन जैसा कि Futurism.com ने हाल ही में उल्लेख किया है, कुछ विशेषज्ञ जिन्होंने टेस्ट रन के लिए सिस्टम लिया है, वे इस बात से चिंतित हैं कि यह विश्वसनीय झूठ बनाने में कितना प्रभावी है, और यहां तक ​​कि वॉल स्ट्रीट जर्नल और न्यूयॉर्क जैसे वैध समाचार आउटलेटों की लेखन शैलियों की नकल भी करते हैं। टाइम्स।

लेकिन चूंकि झूठ बोलना एक सहज ज्ञान युक्त और भावना से चलने वाला कार्य है, क्या यह संभव है कि यहां तक ​​कि सबसे स्मार्ट मशीनें, जो अभी भी ठंड, कठिन तर्क से संचालित होती हैं, क्या कभी झूठ बोलने के लिए आवश्यक शंकुधारी समझ के स्तर को प्राप्त कर सकते हैं? उनाबेल की मारिया अल्मेडा ने हाल ही में उल्लेख किया है कि हालांकि कुछ पुनरावृत्तियों इस पर बहुत अच्छे हो सकते हैं, कोई भी एल्गोरिथम पूर्ण मानव समझ प्राप्त करने की उम्मीद नहीं कर सकता है। इसका मतलब है कि एआई तथ्य-जाँच और तुलनात्मक विश्लेषण में नाटकीय सुधार करने में सक्षम हो सकता है, लेकिन अंतिम कॉल प्रशिक्षित विशेषज्ञों के लिए सबसे अच्छा है।


विडंबना यह है कि, सोशल मीडिया पर चक्कर लगाने के लिए शुरू होने वाले गहरे नकली वीडियो का पता लगाने में यह क्षमता सबसे उपयोगी होगी। व्यक्तिगत पिक्सेल के ठीक नीचे दृश्य डेटा का विश्लेषण करने में सक्षम AI के साथ, यह परिवर्तित शब्दों और अवधारणाओं की तुलना में बदल छवियों पर अधिक निपुण होगा।

फिर भी, फोर्ब्स के चार्ल्स टावर्स-क्लार्क का तर्क है, नकली समाचार के साथ केंद्रीय समस्या यह नहीं है कि कुछ लोग इसे बना रहे हैं, लेकिन इतने सारे लोग इससे प्रभावित हैं। लोगों को विश्वास है कि वे क्या विश्वास करना चाहते हैं, न कि क्या तथ्य उन्हें विश्वास करने के लिए प्रेरित करते हैं। इसलिए अगर एक उच्च विकसित एआई इंजन घोषित करता है कि उनका विश्वास गलत है, तो लोग मशीन पर खुद से संदेह करने के लिए अधिक उपयुक्त होंगे।

"फर्जी समाचार के प्रसार से निपटने के लिए मशीन सीखना लागू करना सराहनीय है," वे कहते हैं, "और इस समस्या को दूर करने की आवश्यकता है क्योंकि प्रमुख मीडिया समाचार आउटलेट की विश्वसनीयता को प्रश्न में कहा जाता है। लेकिन सोशल मीडिया द्वारा जटिल गलत सूचना के प्रसार के साथ, नकली समाचार के स्रोतों का पता लगाने और खुलासा करने से मानव वृत्ति पर विश्वास किया जा सकता है जो हमें बताया जाता है? "

नो बग्स, नो स्ट्रेस - योर स्टेप बाय स्टेप गाइड बाय स्टेप गाइड टू लाइफ-चेंजिंग सॉफ्टवेर विदाउट योर लाइफ

जब कोई भी सॉफ़्टवेयर गुणवत्ता की परवाह नहीं करता है तो आप अपने प्रोग्रामिंग कौशल में सुधार कर सकते हैं।

असली चुनौती, तब नकली समाचारों की पहचान करना और उन पर बहस करना नहीं है, बल्कि यह समझना है कि यह वास्तविक समाचारों की तुलना में सोशल मीडिया पर इतनी तेजी से प्रसार क्यों करता है। भाग में, यह नकली समाचारों की प्रकृति के कारण है, जो वास्तविकता के तुलनात्मक टेडियम बनाम रोमांचक और नम्र हो जाता है। अंत में, क्या यह प्रौद्योगिकी की उम्मीद करना सही है जो अनिवार्य रूप से एक गैर-तकनीकी समस्या है? (एआई कैसे मीडिया बदल रहा है, इस बारे में अधिक जानने के लिए, प्रकाशन और मीडिया में 5 एआई एडवांस देखें।

स्प्रेड को रोकना

ZDNet के रॉबिन हैरिस कहते हैं, यह नकली समाचारों के तकनीकी पहलू पर एआई को केंद्रित करने के लिए महत्वपूर्ण है, इसलिए नहीं। और वास्तव में, अधिकांश शोधकर्ता एआई को सामाजिक नेटवर्क के माध्यम से प्राकृतिक और कृत्रिम प्रसार पैटर्न के बीच अंतर करने जैसी चीजों के बारे में बता रहे हैं। रूपांतरण के पेड़ की दर, रिट्वीट टाइमिंग और समग्र प्रतिक्रिया डेटा जैसे प्रमुख मैट्रिक्स का उपयोग विघटनकारी अभियानों को पहचानने और बेअसर करने के लिए किया जा सकता है, भले ही इसका स्रोत डिजिटल सब्टरफ़्यूज़ की परतों के नीचे छिपा हो। उसी समय, AI का उपयोग ब्लॉकचेन जैसी अन्य तकनीकों का प्रबंधन करने के लिए किया जा सकता है, ताकि पता लगाने योग्य, सत्यापन योग्य सूचना चैनलों को बनाए रखा जा सके।

तथ्य यह है कि नकली समाचार कोई नई घटना नहीं है। 20 के शुरुआती दौर की पत्रकारिता सेवें सभी तरह से जल्द से जल्द सभ्यताओं के प्रचार के पीछे सदी, जनता को गुमराह करना दोनों सरकारों और क्रांतिकारियों के लिए समान रूप से सम्मानित परंपरा है। आज अंतर यह है कि डिजिटल प्रौद्योगिकी ने इस क्षमता को इस हद तक लोकतांत्रिक बना दिया है कि लगभग कोई भी एक झूठ पोस्ट कर सकता है और इसे घंटे भर में दुनिया भर में फैल सकता है।

एआई जैसी प्रौद्योगिकियां निश्चित रूप से इस भ्रम को कुछ स्पष्टता लाने में मदद कर सकती हैं, लेकिन केवल लोग पूरी तरह से समझ सकते हैं, और न्याय कर सकते हैं।