एआईएस करने के लिए कुछ समझा

लेखक: Roger Morrison
निर्माण की तारीख: 28 सितंबर 2021
डेट अपडेट करें: 19 जून 2024
Anonim
Super Minds 4 Video Unit 1 Page 12 Step 11 Sing a song 🎶
वीडियो: Super Minds 4 Video Unit 1 Page 12 Step 11 Sing a song 🎶

विषय


स्रोत: Sdecoret / Dreamstime.com

ले जाओ:

एआई सिस्टम के आउटपुट पर भरोसा करने के लिए, इसकी प्रक्रियाओं को समझने और यह जानने में सक्षम होना आवश्यक है कि यह अपने निष्कर्ष पर कैसे पहुंचा। व्याख्या करने योग्य एआई किसी भी संभावित पूर्वाग्रह को खत्म करने की कुंजी है।

क्या आप एआई पर भरोसा कर सकते हैं? क्या आपको इसके निष्कर्षों को बिना प्रश्न के निष्पक्ष रूप से मान्य होना चाहिए? समस्या यह है कि एआई पर सवाल उठाने से भी स्पष्ट जवाब नहीं मिलेगा।

AI सिस्टम ने आम तौर पर एक ब्लैक बॉक्स की तरह काम किया है: डेटा इनपुट है, और डेटा आउटपुट है, लेकिन उस डेटा को बदलने वाली प्रक्रिया एक रहस्य है। यह एक दोहरी समस्या पैदा करता है। एक यह है कि यह स्पष्ट नहीं है कि कौन से एल्गोरिदम का प्रदर्शन सबसे विश्वसनीय है। दूसरा यह है कि प्रतीत होता है कि वस्तुनिष्ठ परिणाम मनुष्यों के मूल्यों और पूर्वाग्रहों द्वारा तिरछा किया जा सकता है जो सिस्टम को प्रोग्राम करते हैं। यही कारण है कि इस तरह के सिस्टम का उपयोग करने वाले आभासी विचार प्रक्रियाओं के लिए पारदर्शिता की आवश्यकता है, या "व्याख्या करने योग्य एआई।"


नैतिक अनिवार्यता GDPR के अधीन किसी के लिए भी कानूनी बन गई है, जो न केवल ईयू पर आधारित व्यवसायों पर प्रभाव डालती है, बल्कि ऐसे लोगों या संगठनों के साथ व्यवहार करती है। इसमें डेटा संरक्षण पर कई प्रावधान शामिल हैं, जो यूरोपीय संघ के नागरिकों के लिए "कुछ निर्णय के अलावा, केवल स्वचालित निर्णय लेने के अधीन नहीं होने का अधिकार है" और "निर्णय में शामिल तर्क के बारे में सार्थक जानकारी प्रदान करने का अधिकार" । "

दूसरे शब्दों में, यह कहने के लिए पर्याप्त नहीं है, "एल्गोरिथ्म ने आपके आवेदन को अस्वीकार कर दिया है।" यह सोचने के लिए कि क्या लोगों के जीवन पर प्रभाव पड़ता है, इस निष्कर्ष की व्याख्या करने के लिए एक कानूनी जनादेश है। (एआई के पेशेवरों और विपक्षों पर अधिक जानकारी के लिए, द प्रॉमिस एंड मशीनफुल ऑफ़ मशीन लर्निंग देखें)।

पक्षपाती परिणाम

एक चिंता जो कुछ लोगों ने एल्गोरिथम निर्णयों के बारे में उठाई है, वह यह है कि उद्देश्यपूर्ण तर्क के लिए खड़े होने के बावजूद, वे पूर्वाग्रहों को मजबूत कर सकते हैं। कैथी ओनेइल ने तर्क दिया है कि "मैथ डिस्ट्रक्शन ऑफ वेपन्स: हाउ बिग डेटा इनकैरिटी एंड थ्रेट्स डेमोक्रेसी।" ।


जिसे वह "गणित विनाश" कहती है, वह "मॉडल का परिणाम है जो बाधाओं को मजबूत करता है, विशेष जनसांख्यिकीय आबादी को ऋण, शिक्षा, नौकरी के अवसरों, पैरोल, आदि के रूप में कम पहचानने से वंचित रखता है।"

वह अल्गोरिदमिक पूर्वाग्रह खोजने में अकेली नहीं है। 2016 में, प्रो पब्लिका ने अपने निष्कर्षों को साझा किया कि एल्गोरिदम ने गोरों की तुलना में अश्वेतों के लिए अधिक पुनरावृत्ति दर की भविष्यवाणी की थी, एक कारक जो एक ही प्रकार के अपराधों के लिए विभिन्न जेल वाक्यों में अनुवाद किया गया था। 2017 के एक अभिभावक के लेख ने पूर्वाग्रह को लिंग तक बढ़ा दिया।

समस्या यह है कि इन प्रणालियों को दूरगामी परिणामों के साथ प्रोग्राम किया जाता है। कॉलिब्रा के सह-संस्थापक और सीटीओ, स्टिज क्रिस्टियांस ने एक फोन साक्षात्कार में, उन्होंने बताया कि एआई "स्वचालित निर्णय लेने" को सक्षम करता है, जो प्रति सेकंड 10 हजार से अधिक निर्णय ले सकता है।

नो बग्स, नो स्ट्रेस - योर स्टेप बाय स्टेप गाइड बाय स्टेप गाइड टू लाइफ-चेंजिंग सॉफ्टवेर विदाउट योर लाइफ

जब कोई भी सॉफ़्टवेयर गुणवत्ता की परवाह नहीं करता है तो आप अपने प्रोग्रामिंग कौशल में सुधार कर सकते हैं।

इसका मतलब है कि बुरे फैसलों पर आधारित एक प्रणाली उनमें से बहुत अधिक तेजी से किसी भी मानव की तुलना में अधिक तेजी से कर सकती है। यदि सिस्टम में पूर्वाग्रह है, तो निर्णय की एक बड़ी संख्या "कुछ आबादी के लिए हानिकारक" हो सकती है, बहुत गंभीर और व्यापक परिणामों के साथ, क्रिस्टियन ने कहा।

एल्गोरिदम की देखभाल और फीडिंग

निश्चित रूप से, ऐसी त्रुटियां हैं जो अपूर्ण या खराब डेटा के परिणामस्वरूप होती हैं। यही कारण था कि ऊपर संदर्भित संदर्भित गार्जियन लेख में उद्धृत कुछ विशेषज्ञों ने पक्षपाती एल्गोरिथ्म परिणामों के लिए दिया था। ऑक्सफ़ोर्ड यूनिवर्सिटी के सैंड्रा वाचर ने इसे इस प्रकार बताया है: "दुनिया पक्षपाती है, ऐतिहासिक डेटा पक्षपाती है, इसलिए यह आश्चर्य की बात नहीं है कि हम पक्षपाती परिणाम प्राप्त करते हैं।"

उसी पंक्तियों के साथ, क्रिस्टियानेंस ने कहा, "जैसा कि यह वास्तविक दुनिया टिप्पणियों पर आधारित है," एआई "हमारे पूर्वाग्रहों का अवलोकन करता है, और सेक्सिस्ट या नस्लवादी आउटपुट का उत्पादन करता है।" अपनी खुद की शर्तों को लागू करना जिसे कचरा, कचरा बाहर (गिगो) के रूप में जाना जाता है। ), उन्होंने कहा कि समस्या "भोजन" हो सकती है जो प्रशिक्षण डेटा बनाती है क्योंकि यह गलत, अधूरा या पक्षपाती है।

जातिवाद और सेक्सिस्ट परिणामों को उस डेटा से सिस्टम में प्रशिक्षित किया जा सकता है जो आबादी में अंतर का पर्याप्त रूप से प्रतिनिधित्व नहीं करता है। उन्होंने सम्मेलनों में वक्ताओं पर आधारित प्रशिक्षण डेटा पर ड्राइंग के मामले की पेशकश की, जिसमें महिलाओं का केवल 20 प्रतिशत प्रतिनिधित्व हो सकता है। जब इस तरह के तिरछे प्रतिनिधित्व पर प्रशिक्षित किया जाता है, तो एल्गोरिथ्म में एक अंतर्निहित पूर्वाग्रह होगा।

ऐ कीमिया

एआई पूर्वाग्रह की समस्या हमेशा डेटा फीड के कारण नहीं होती है, बल्कि इसके निर्णयों के काम करने के तरीके से भी होती है। उन ऑपरेशनों के रहस्य ने अली रहिमी और बेन रेचट को इतना प्रभावित किया कि उन्होंने इसकी तुलना कीमिया से कर दी।

यद्यपि कीमिया का अपना स्थान हो सकता है, यह नहीं है कि लोग गंभीर परिणामों के साथ स्वचालित निर्णयों के बारे में अपने सवालों के जवाब के रूप में क्या चाहते हैं। जैसा कि रहीमी और रेख्त ने कहा: “लेकिन अब हम ऐसी प्रणालियों का निर्माण कर रहे हैं जो स्वास्थ्य देखभाल और नागरिक बहस में हमारी भागीदारी को नियंत्रित करती हैं। मैं ऐसी दुनिया में रहना चाहता हूं, जिसके सिस्टम कठोर, विश्वसनीय, सत्य ज्ञान पर हों, न कि कीमिया पर। "(स्वास्थ्य देखभाल में AI पर अधिक जानकारी के लिए, देखें स्वास्थ्य देखभाल में 5 सबसे अद्भुत AI अग्रिम।)

ब्लैक बॉक्स से परे: निर्णय क्या निर्धारित करता है, इसकी खोज करना

यही कारण है कि कुछ एआई सिस्टम की सोच प्रक्रिया में पारदर्शिता लाने के लिए एक रास्ता बनाने के लिए जोर दे रहे हैं, जिससे यह स्पष्ट होता है कि यह निष्कर्ष पर क्यों पहुंचा। विभिन्न स्थानों से प्रयास हुए हैं।

अमेरिकी विश्वविद्यालयों के तीन प्रोफेसरों और शोधकर्ताओं के एक समूह ने 2016 में एक समाधान पर काम किया, जिसे उन्होंने स्थानीय व्याख्यात्मक मॉडल-एग्नोस्टिक स्पष्टीकरण (लीम) कहा। वे इस वीडियो में अपना दृष्टिकोण स्पष्ट करते हैं:

हालाँकि यह सही दिशा में एक कदम था, लेकिन समाधान पूरी तरह से काम नहीं कर रहा था। और इसलिए अनुसंधान जारी है, और जीडीपीआर के प्रकाश में, यूरोपीय संघ से जुड़े लोगों को समझाने योग्य एआई प्राप्त करने में विशेष रुचि है।

ब्रुसेल विश्वविद्यालय में आर्टिफिशियल इंटेलिजेंस लैब, एक संस्था है जिसमें से क्रिश्चियन्स कंपनी उभरी है, जो इस तरह के अनुसंधान के लिए समर्पित स्थानों में से एक है। उन्होंने कहा कि लैब ने छवि पहचान के साथ काम करने के तरीके खोजे हैं और "नेटवर्क ने भाषाई तौर पर यह बताया है कि क्या देखा है और क्यों" यह निष्कर्ष के बारे में आता है कि यह तस्वीर में क्या है, इसके बारे में है।

"एल्गोरिदम हमेशा उसी तरह से काम करते हैं," क्रिस्टियन्स ने समझाया। "इनपुट डेटा को सुविधाओं में अनुवादित किया जाता है।" एआई लैब में, उनके पास "नीचे ड्रिल करने और निर्णय पेड़ में क्या हुआ है, यह देखने के लिए साधन हैं।" उस आधार पर, "उन रास्तों को देखना संभव है, जिनका पालन करना" है। देखें कि कहां कुछ गलत हुआ और फिर "समायोजित और पीछे हटना"।

आईबीएम ने ब्लैक बॉक्स समस्या पर भी अपना ध्यान केंद्रित किया, और इसने हाल ही में एक सॉफ्टवेयर सेवा की पेशकश की घोषणा की, जो आईबीएम क्लाउड के माध्यम से सिस्टम के चलने के दौरान भी एआईएस के फैसलों के लिए पूर्वाग्रह और हिसाब लेगी। समय पर अलर्ट के अलावा, यह पक्षपाती परिणामों का मुकाबला करने के लिए क्या डेटा की आवश्यकता है, के सुझाव प्रदान करता है।

क्लाउड सेवा के अलावा, आईबीएम उन कंपनियों के लिए परामर्श दे रहा है जो भविष्य में पक्षपाती परिणामों को कम करने के लिए मशीन लर्निंग सिस्टम का निर्माण कर रहे हैं। शायद अन्य एआई विशेषज्ञ भी बेहतर सिस्टम बनाने में मदद करने के लिए परामर्श में शामिल होंगे और संभावित बायसेज़ के लिए एक चेक की पेशकश करेंगे जो प्रोग्राम में आते हैं।

हमें यह याद रखना होगा कि एआई सिस्टम उन मनुष्यों के लिए त्रुटि के अधीन हैं जो उन्हें स्थापित करने वाले मनुष्यों के रूप में हैं, और इसलिए कोई भी निर्णय लेने से ऊपर नहीं है।