विषय
- पक्षपाती परिणाम
- नो बग्स, नो स्ट्रेस - योर स्टेप बाय स्टेप गाइड बाय स्टेप गाइड टू लाइफ-चेंजिंग सॉफ्टवेर विदाउट योर लाइफ
- एल्गोरिदम की देखभाल और फीडिंग
- ऐ कीमिया
- ब्लैक बॉक्स से परे: निर्णय क्या निर्धारित करता है, इसकी खोज करना
स्रोत: Sdecoret / Dreamstime.com
ले जाओ:
एआई सिस्टम के आउटपुट पर भरोसा करने के लिए, इसकी प्रक्रियाओं को समझने और यह जानने में सक्षम होना आवश्यक है कि यह अपने निष्कर्ष पर कैसे पहुंचा। व्याख्या करने योग्य एआई किसी भी संभावित पूर्वाग्रह को खत्म करने की कुंजी है।
क्या आप एआई पर भरोसा कर सकते हैं? क्या आपको इसके निष्कर्षों को बिना प्रश्न के निष्पक्ष रूप से मान्य होना चाहिए? समस्या यह है कि एआई पर सवाल उठाने से भी स्पष्ट जवाब नहीं मिलेगा।
AI सिस्टम ने आम तौर पर एक ब्लैक बॉक्स की तरह काम किया है: डेटा इनपुट है, और डेटा आउटपुट है, लेकिन उस डेटा को बदलने वाली प्रक्रिया एक रहस्य है। यह एक दोहरी समस्या पैदा करता है। एक यह है कि यह स्पष्ट नहीं है कि कौन से एल्गोरिदम का प्रदर्शन सबसे विश्वसनीय है। दूसरा यह है कि प्रतीत होता है कि वस्तुनिष्ठ परिणाम मनुष्यों के मूल्यों और पूर्वाग्रहों द्वारा तिरछा किया जा सकता है जो सिस्टम को प्रोग्राम करते हैं। यही कारण है कि इस तरह के सिस्टम का उपयोग करने वाले आभासी विचार प्रक्रियाओं के लिए पारदर्शिता की आवश्यकता है, या "व्याख्या करने योग्य एआई।"
नैतिक अनिवार्यता GDPR के अधीन किसी के लिए भी कानूनी बन गई है, जो न केवल ईयू पर आधारित व्यवसायों पर प्रभाव डालती है, बल्कि ऐसे लोगों या संगठनों के साथ व्यवहार करती है। इसमें डेटा संरक्षण पर कई प्रावधान शामिल हैं, जो यूरोपीय संघ के नागरिकों के लिए "कुछ निर्णय के अलावा, केवल स्वचालित निर्णय लेने के अधीन नहीं होने का अधिकार है" और "निर्णय में शामिल तर्क के बारे में सार्थक जानकारी प्रदान करने का अधिकार" । "
दूसरे शब्दों में, यह कहने के लिए पर्याप्त नहीं है, "एल्गोरिथ्म ने आपके आवेदन को अस्वीकार कर दिया है।" यह सोचने के लिए कि क्या लोगों के जीवन पर प्रभाव पड़ता है, इस निष्कर्ष की व्याख्या करने के लिए एक कानूनी जनादेश है। (एआई के पेशेवरों और विपक्षों पर अधिक जानकारी के लिए, द प्रॉमिस एंड मशीनफुल ऑफ़ मशीन लर्निंग देखें)।
पक्षपाती परिणाम
एक चिंता जो कुछ लोगों ने एल्गोरिथम निर्णयों के बारे में उठाई है, वह यह है कि उद्देश्यपूर्ण तर्क के लिए खड़े होने के बावजूद, वे पूर्वाग्रहों को मजबूत कर सकते हैं। कैथी ओनेइल ने तर्क दिया है कि "मैथ डिस्ट्रक्शन ऑफ वेपन्स: हाउ बिग डेटा इनकैरिटी एंड थ्रेट्स डेमोक्रेसी।" ।
जिसे वह "गणित विनाश" कहती है, वह "मॉडल का परिणाम है जो बाधाओं को मजबूत करता है, विशेष जनसांख्यिकीय आबादी को ऋण, शिक्षा, नौकरी के अवसरों, पैरोल, आदि के रूप में कम पहचानने से वंचित रखता है।"
वह अल्गोरिदमिक पूर्वाग्रह खोजने में अकेली नहीं है। 2016 में, प्रो पब्लिका ने अपने निष्कर्षों को साझा किया कि एल्गोरिदम ने गोरों की तुलना में अश्वेतों के लिए अधिक पुनरावृत्ति दर की भविष्यवाणी की थी, एक कारक जो एक ही प्रकार के अपराधों के लिए विभिन्न जेल वाक्यों में अनुवाद किया गया था। 2017 के एक अभिभावक के लेख ने पूर्वाग्रह को लिंग तक बढ़ा दिया।
समस्या यह है कि इन प्रणालियों को दूरगामी परिणामों के साथ प्रोग्राम किया जाता है। कॉलिब्रा के सह-संस्थापक और सीटीओ, स्टिज क्रिस्टियांस ने एक फोन साक्षात्कार में, उन्होंने बताया कि एआई "स्वचालित निर्णय लेने" को सक्षम करता है, जो प्रति सेकंड 10 हजार से अधिक निर्णय ले सकता है।
नो बग्स, नो स्ट्रेस - योर स्टेप बाय स्टेप गाइड बाय स्टेप गाइड टू लाइफ-चेंजिंग सॉफ्टवेर विदाउट योर लाइफ
जब कोई भी सॉफ़्टवेयर गुणवत्ता की परवाह नहीं करता है तो आप अपने प्रोग्रामिंग कौशल में सुधार कर सकते हैं।
इसका मतलब है कि बुरे फैसलों पर आधारित एक प्रणाली उनमें से बहुत अधिक तेजी से किसी भी मानव की तुलना में अधिक तेजी से कर सकती है। यदि सिस्टम में पूर्वाग्रह है, तो निर्णय की एक बड़ी संख्या "कुछ आबादी के लिए हानिकारक" हो सकती है, बहुत गंभीर और व्यापक परिणामों के साथ, क्रिस्टियन ने कहा।
एल्गोरिदम की देखभाल और फीडिंग
निश्चित रूप से, ऐसी त्रुटियां हैं जो अपूर्ण या खराब डेटा के परिणामस्वरूप होती हैं। यही कारण था कि ऊपर संदर्भित संदर्भित गार्जियन लेख में उद्धृत कुछ विशेषज्ञों ने पक्षपाती एल्गोरिथ्म परिणामों के लिए दिया था। ऑक्सफ़ोर्ड यूनिवर्सिटी के सैंड्रा वाचर ने इसे इस प्रकार बताया है: "दुनिया पक्षपाती है, ऐतिहासिक डेटा पक्षपाती है, इसलिए यह आश्चर्य की बात नहीं है कि हम पक्षपाती परिणाम प्राप्त करते हैं।"
उसी पंक्तियों के साथ, क्रिस्टियानेंस ने कहा, "जैसा कि यह वास्तविक दुनिया टिप्पणियों पर आधारित है," एआई "हमारे पूर्वाग्रहों का अवलोकन करता है, और सेक्सिस्ट या नस्लवादी आउटपुट का उत्पादन करता है।" अपनी खुद की शर्तों को लागू करना जिसे कचरा, कचरा बाहर (गिगो) के रूप में जाना जाता है। ), उन्होंने कहा कि समस्या "भोजन" हो सकती है जो प्रशिक्षण डेटा बनाती है क्योंकि यह गलत, अधूरा या पक्षपाती है।
जातिवाद और सेक्सिस्ट परिणामों को उस डेटा से सिस्टम में प्रशिक्षित किया जा सकता है जो आबादी में अंतर का पर्याप्त रूप से प्रतिनिधित्व नहीं करता है। उन्होंने सम्मेलनों में वक्ताओं पर आधारित प्रशिक्षण डेटा पर ड्राइंग के मामले की पेशकश की, जिसमें महिलाओं का केवल 20 प्रतिशत प्रतिनिधित्व हो सकता है। जब इस तरह के तिरछे प्रतिनिधित्व पर प्रशिक्षित किया जाता है, तो एल्गोरिथ्म में एक अंतर्निहित पूर्वाग्रह होगा।
ऐ कीमिया
एआई पूर्वाग्रह की समस्या हमेशा डेटा फीड के कारण नहीं होती है, बल्कि इसके निर्णयों के काम करने के तरीके से भी होती है। उन ऑपरेशनों के रहस्य ने अली रहिमी और बेन रेचट को इतना प्रभावित किया कि उन्होंने इसकी तुलना कीमिया से कर दी।
यद्यपि कीमिया का अपना स्थान हो सकता है, यह नहीं है कि लोग गंभीर परिणामों के साथ स्वचालित निर्णयों के बारे में अपने सवालों के जवाब के रूप में क्या चाहते हैं। जैसा कि रहीमी और रेख्त ने कहा: “लेकिन अब हम ऐसी प्रणालियों का निर्माण कर रहे हैं जो स्वास्थ्य देखभाल और नागरिक बहस में हमारी भागीदारी को नियंत्रित करती हैं। मैं ऐसी दुनिया में रहना चाहता हूं, जिसके सिस्टम कठोर, विश्वसनीय, सत्य ज्ञान पर हों, न कि कीमिया पर। "(स्वास्थ्य देखभाल में AI पर अधिक जानकारी के लिए, देखें स्वास्थ्य देखभाल में 5 सबसे अद्भुत AI अग्रिम।)
ब्लैक बॉक्स से परे: निर्णय क्या निर्धारित करता है, इसकी खोज करना
यही कारण है कि कुछ एआई सिस्टम की सोच प्रक्रिया में पारदर्शिता लाने के लिए एक रास्ता बनाने के लिए जोर दे रहे हैं, जिससे यह स्पष्ट होता है कि यह निष्कर्ष पर क्यों पहुंचा। विभिन्न स्थानों से प्रयास हुए हैं।
अमेरिकी विश्वविद्यालयों के तीन प्रोफेसरों और शोधकर्ताओं के एक समूह ने 2016 में एक समाधान पर काम किया, जिसे उन्होंने स्थानीय व्याख्यात्मक मॉडल-एग्नोस्टिक स्पष्टीकरण (लीम) कहा। वे इस वीडियो में अपना दृष्टिकोण स्पष्ट करते हैं:
हालाँकि यह सही दिशा में एक कदम था, लेकिन समाधान पूरी तरह से काम नहीं कर रहा था। और इसलिए अनुसंधान जारी है, और जीडीपीआर के प्रकाश में, यूरोपीय संघ से जुड़े लोगों को समझाने योग्य एआई प्राप्त करने में विशेष रुचि है।
ब्रुसेल विश्वविद्यालय में आर्टिफिशियल इंटेलिजेंस लैब, एक संस्था है जिसमें से क्रिश्चियन्स कंपनी उभरी है, जो इस तरह के अनुसंधान के लिए समर्पित स्थानों में से एक है। उन्होंने कहा कि लैब ने छवि पहचान के साथ काम करने के तरीके खोजे हैं और "नेटवर्क ने भाषाई तौर पर यह बताया है कि क्या देखा है और क्यों" यह निष्कर्ष के बारे में आता है कि यह तस्वीर में क्या है, इसके बारे में है।
"एल्गोरिदम हमेशा उसी तरह से काम करते हैं," क्रिस्टियन्स ने समझाया। "इनपुट डेटा को सुविधाओं में अनुवादित किया जाता है।" एआई लैब में, उनके पास "नीचे ड्रिल करने और निर्णय पेड़ में क्या हुआ है, यह देखने के लिए साधन हैं।" उस आधार पर, "उन रास्तों को देखना संभव है, जिनका पालन करना" है। देखें कि कहां कुछ गलत हुआ और फिर "समायोजित और पीछे हटना"।
आईबीएम ने ब्लैक बॉक्स समस्या पर भी अपना ध्यान केंद्रित किया, और इसने हाल ही में एक सॉफ्टवेयर सेवा की पेशकश की घोषणा की, जो आईबीएम क्लाउड के माध्यम से सिस्टम के चलने के दौरान भी एआईएस के फैसलों के लिए पूर्वाग्रह और हिसाब लेगी। समय पर अलर्ट के अलावा, यह पक्षपाती परिणामों का मुकाबला करने के लिए क्या डेटा की आवश्यकता है, के सुझाव प्रदान करता है।
क्लाउड सेवा के अलावा, आईबीएम उन कंपनियों के लिए परामर्श दे रहा है जो भविष्य में पक्षपाती परिणामों को कम करने के लिए मशीन लर्निंग सिस्टम का निर्माण कर रहे हैं। शायद अन्य एआई विशेषज्ञ भी बेहतर सिस्टम बनाने में मदद करने के लिए परामर्श में शामिल होंगे और संभावित बायसेज़ के लिए एक चेक की पेशकश करेंगे जो प्रोग्राम में आते हैं।
हमें यह याद रखना होगा कि एआई सिस्टम उन मनुष्यों के लिए त्रुटि के अधीन हैं जो उन्हें स्थापित करने वाले मनुष्यों के रूप में हैं, और इसलिए कोई भी निर्णय लेने से ऊपर नहीं है।