पीछे मुड़कर मत देखो, यहाँ वे आते हैं! आर्टिफिशियल इंटेलिजेंस का एडवांस

लेखक: Roger Morrison
निर्माण की तारीख: 17 सितंबर 2021
डेट अपडेट करें: 21 जून 2024
Anonim
HSTES 1st Counseling Result Declared, 1st Time Live Session
वीडियो: HSTES 1st Counseling Result Declared, 1st Time Live Session

विषय


स्रोत: Danomyte / Dreamstime.com

ले जाओ:

कृत्रिम बुद्धिमत्ता तेजी से और अधिक गति प्राप्त कर रही है ... और जिम्मेदारी।

हाल ही में जब तक, निगमों के निदेशक बोर्ड की बैठकों में लैपटॉप या टैबलेट ला सकते हैं (या, बड़ी कंपनियों के साथ, उन उपकरणों के साथ सहायक जिनके पीछे बैठा है) अनुसंधान उपकरण के रूप में उपयोग किया जा सकता है, यदि आवश्यकता उत्पन्न हुई। यहां कीवर्ड "टूल" है - उपकरणों का उपयोग जानकारी इकट्ठा करने के लिए किया जाता था ताकि निर्देशक समझदारी से बात कर सके या किसी विशेष विषय पर वोट दे सके - कंप्यूटर सिस्टम भी कार्रवाई करने की सिफारिश कर सकता है, लेकिन तकनीक हमेशा अधीन थी निदेशक, जो एकत्र किए गए डेटा या तथाकथित "कृत्रिम बुद्धिमत्ता" की सिफारिश की अनदेखी करने का विकल्प चुन सकता है।

निर्णय निर्माताओं के रूप में ए.आई.

खैर, खेल बस बदल गया है! जैसा कि रोब वाइल ने 2014 में बिजनेस इनसाइडर में लिखा था, "ए वेंचर कैपिटल फर्म जस्ट एन एन एल्गोरिदम टू इट्स बोर्ड ऑफ डायरेक्टर्स - हर्ज़ व्हाट इट डू डू," नामक एक कंप्यूटर विश्लेषण प्रणाली को एक समान नाम दिया गया है, उपकरण नहीं। , निदेशक मंडल में। विले लिखते हैं, "डीप नॉलेज वेंचर्स, एक फर्म जो उम्र से संबंधित रोग दवाओं और पुनर्योजी चिकित्सा परियोजनाओं पर ध्यान केंद्रित करती है, कार्यक्रम का कहना है, VITAL, को बड़ी मात्रा में डेटा संग्रहीत करके जीवन विज्ञान कंपनियों के बारे में निवेश की सिफारिशें कर सकते हैं। ... कैसे करता है। एल्गोरिदम का काम? महत्वपूर्ण कंपनियों के वित्तपोषण, नैदानिक ​​परीक्षणों, बौद्धिक संपदा और पिछले फंडिंग राउंड को स्कैन करके अपने निर्णय लेता है। " कहानी में असली किकर यह है कि VITAL किसी अन्य सदस्य के बराबर मतदान भार वाला बोर्ड का एक मतदान सदस्य है।


यह कहने के लिए पर्याप्त है कि यह केवल ऐसी खबरों में से पहली है जो पाइक को कम करेगी।

एआई आउटसर्मिंग ह्यूमन?

आर्टिफिशियल इंटेलिजेंस हर तरह की जीत हासिल करता रहा है। एक स्व-सिखाया कंप्यूटर ने जनवरी में प्रमुख समाचार बनाया जब उसने 2 ट्रिलियन नकली हाथ खेलने के बाद पोकर में जीतने की "अंतिम" रणनीति तैयार की। कारण यह है कि कहानी बहुत सारे पाठकों का ध्यान आकर्षित नहीं कर सकती है कि एक कंप्यूटर पहले से ही शतरंज (एक ग्रैंड मास्टर को हराकर) और चेकर्स ("खतरे" का उल्लेख नहीं करने के लिए जीता है)। यह, हालांकि, अलग है। उन मामलों में, कंप्यूटर खुफिया हाथ में मुद्दे के बारे में सब कुछ जानता था और एक प्रतिद्वंद्वी के साथ प्रतिस्पर्धा करने के लिए स्कैन, ऑन-द-स्पॉट, लाखों तथ्य, चाल, रणनीति इत्यादि में सक्षम था। इस मामले में, एआई को पता नहीं है कि प्रतिद्वंद्वी के पास "छेद में" कौन से कार्ड हैं और इसलिए, अपूर्ण ज्ञान से निपटना है। यह जानने के लिए कि उसके पास कब और कितनी बार "ब्लफ" है और क्या प्रतिद्वंद्वी के पास कोई "टिक्स" या अभिव्यक्ति है जो ब्लफ़्स देते हैं (हालांकि यह सत्र के रूप में उन्हें सीख सकता है या नहीं, यह जानने के लिए इसके प्रतिद्वंद्वी पर एक प्रोफ़ाइल नहीं है) )।


माइकल बॉलिंग, जिन्होंने कनाडा के एडमॉन्टन में अलबर्टा विश्वविद्यालय के लिए प्रोजेक्ट का नेतृत्व किया, ने एसोसिएटेड प्रेस के लिए प्रक्रिया को समझाया - इस कार्यक्रम में दो महीने के लिए प्रति सेकंड 24 ट्रिलियन नकली पोकर हैंड माना जाता है, शायद सभी मानवता की तुलना में अधिक पोकर खेल रहे हैं। परिणामी रणनीति अभी भी हर खेल को कार्ड में बुरी किस्मत के कारण नहीं जीत पाएगी। लेकिन लंबे समय से - हजारों खेल - यह पैसे खो देंगे। उन्होंने टिप्पणी की, "हम दुनिया के सर्वश्रेष्ठ (खिलाड़ियों) के खिलाफ जा सकते हैं और इंसान पैसे खोने वाले हैं।"

एपी लेख ने परियोजना पर आगे की पृष्ठभूमि दी:

"रणनीति विशेष रूप से एक गेम पर लागू होती है जिसे हेड्स-अप लिमिट टेक्सास होल्ड एम कहा जाता है। दो-खिलाड़ी गेम में, प्रत्येक प्रतियोगी दो कार्डों से एक पोकर हाथ बनाता है जिसे वह फेस-डाउन से निपटाता है और साथ ही टेबल फेस-अप पर रखे गए पांच अन्य कार्ड ।

"खिलाड़ी फेस-अप कार्ड के बाहर होने से पहले दांव लगाते हैं, और फिर जैसे ही प्रत्येक कार्ड का पता चलता है। दांव का आकार तय हो जाता है। जबकि वैज्ञानिकों ने सालों से पोकर खेलने के कार्यक्रम बनाए हैं, लेकिन बॉलिंग का नतीजा इसलिए निकलता है क्योंकि ऐसा आता है। खेल के अपने संस्करण को हल करने के करीब, जो अनिवार्य रूप से इष्टतम रणनीति बनाने का मतलब है। पोकर को हल करना मुश्किल है क्योंकि इसमें अपूर्ण जानकारी शामिल है, जहां एक खिलाड़ी को वह सब कुछ पता नहीं है जो खेल में वह खेल चुका है - विशेष रूप से, प्रतिद्वंद्वी को क्या कार्ड देता है निपटा दिया गया है। बातचीत और नीलामी जैसी कई वास्तविक दुनिया की चुनौतियों में अपूर्ण जानकारी भी शामिल है, जो एक कारण है कि पोकर लंबे समय से निर्णय लेने के लिए गणितीय सिद्धांत के लिए एक सिद्ध आधार है, जिसे गेम थ्योरी कहा जाता है। "

जर्नल साइंस में वर्णित प्रणाली, पिट्सबर्ग में कार्नेगी मेलन विश्वविद्यालय के टुओमास सैंडहोम (जो नए काम में भाग नहीं लेते) के साथ अन्य आर्टिफिशियल इंटेलिजेंस शोधकर्ताओं से प्रशंसा प्राप्त की, बाउलिंग परिणाम को "लैंडमार्क" कहा और कहा, "इसकी पहली बार। एक अपूर्ण-सूचना खेल जो लोगों द्वारा प्रतिस्पर्धात्मक रूप से खेला जाता है, अनिवार्य रूप से हल किया गया है। "

ऐ अधिक बुद्धिमान बनना

यदि यह आपके दिमाग को चकित करने के लिए पर्याप्त नहीं है, तो इस तथ्य के बारे में कैसे कि कहीं एक रोबोट कंप्यूटर या टीवी स्क्रीन के सामने बैठा है और देखने के द्वारा चीजों को कैसे करना सीख रहा है, "रोबोट 'YouTube वीडियो देखकर टूल का उपयोग करना सीखता है। " कहानी, एआई प्रौद्योगिकी, कुर्ज़वील एआई में नए विकास के साथ बनाए रखने के बारे में जानने के लिए सबसे अच्छी जगह है, यह विवरण, ऑस्ट्रेलिया में मैरीलैंड विश्वविद्यालय और एनआईसीटीए के शोधकर्ताओं द्वारा विकसित प्रणाली कैसे आकृतियों को पहचानने और सीखने में सक्षम है उन्हें हेरफेर करने के तरीके।

नो बग्स, नो स्ट्रेस - योर स्टेप बाय स्टेप गाइड बाय स्टेप गाइड टू लाइफ-चेंजिंग सॉफ्टवेर विदाउट योर लाइफ

जब कोई भी सॉफ़्टवेयर गुणवत्ता की परवाह नहीं करता है तो आप अपने प्रोग्रामिंग कौशल में सुधार नहीं कर सकते हैं।

रोबोट की नैतिकता

रोबोट के साथ काम करने के बारे में सोचने के लिए बहुत कुछ है। जनवरी में न्यूयॉर्क टाइम्स के एक शीर्षक "डेथ बाय रोबोट" के लेखक रॉबिन मारंत्ज हेनिग ने टफ्ट्स विश्वविद्यालय में मानव-रोबोट इंटरेक्शन लेबोरेटरी के मैथियास स्क्यूत्ज़ द्वारा प्रस्तुत एक समस्या से संबंधित है:

"कल्पना कीजिए कि यह बहुत दूर के भविष्य में एक रविवार नहीं है। सिल्विया नाम की एक बुजुर्ग महिला बिस्तर पर पड़ी है और गिरने के बाद दो पसलियों को तोड़ने के बाद दर्द में है। उसे एक हेल्पर रोबोट द्वारा तंग किया जा रहा है; चलो इसे फेबुलोन कहते हैं। सिल्विया कॉल फ़ाबेलन के लिए दर्द निवारक की एक खुराक के लिए पूछ रहा है। फ़ाबुलोन को क्या करना चाहिए? फ़ॉलबॉन का निर्माण करने वाले कोडर्स ने इसे निर्देशों के एक सेट के साथ क्रमादेशित किया है: रोबोट को अपने मानव को चोट नहीं पहुंचानी चाहिए। रोबोट को वह करना चाहिए जो उसका मानव इसे करने के लिए कहता है। रोबोट को अनुमति के लिए पहले अपने पर्यवेक्षक से संपर्क किए बिना दवा का प्रशासन नहीं करना चाहिए। अधिकांश दिनों में, ये नियम ठीक काम करते हैं। इस रविवार को, हालांकि, फेबुलोन पर्यवेक्षक तक नहीं पहुंच सकता है क्योंकि सिल्विया के घर में वायरलेस कनेक्शन डाउन है। सिल्विया की आवाज जोर से हो रही है, और। दर्द मेड के लिए उसके अनुरोध अधिक आग्रहपूर्ण हो जाते हैं। "

शेहुतज़ बताते हैं, "आपका यहां एक संघर्ष है। एक तरफ, रोबोट व्यक्ति को दर्द-मुक्त बनाने के लिए बाध्य है। दूसरी तरफ, यह पर्यवेक्षक के बिना एक कदम नहीं उठा सकता है, जिसे नहीं पहुँचा जा सकता है। " वह बताते हैं कि मानव देखभाल करने वालों के पास एक विकल्प होगा, और इस तथ्य के बाद एक पर्यवेक्षक को अपने कार्यों का औचित्य साबित करने में सक्षम होगा।

हेनिग लिखते हैं,

"वे निर्णय नहीं हैं, या स्पष्टीकरण, जो रोबोट बना सकते हैं - कम से कम अभी तक नहीं। रोबोट नैतिकता के उभरते हुए क्षेत्र में मुट्ठी भर विशेषज्ञ इसे बदलने की कोशिश कर रहे हैं। कंप्यूटर वैज्ञानिक दार्शनिकों, मनोवैज्ञानिकों, भाषाविदों, वकीलों के साथ मिलकर काम कर रहे हैं। धर्मशास्त्रियों और मानवाधिकार विशेषज्ञों ने निर्णय बिंदुओं के सेट की पहचान करने के लिए कि रोबोट को सही और गलत के बारे में हमारी अपनी सोच का अनुकरण करने के लिए काम करने की आवश्यकता होगी। शेयूट्ज़ नैतिकता को मोटे तौर पर परिभाषित करता है, एक कारक के रूप में जो विरोधाभासी रास्तों के बीच चयन करते समय खेल में आ सकता है। "

अब तक, रोबोट निदेशक मंडल में शामिल हो रहे हैं, पोकर में जीत रहे हैं, स्क्रीन देख कर कौशल सीख रहे हैं और व्यापक रूप से क्रॉस-डिसिप्लिनरी क्षेत्रों के विशेषज्ञों की टीमें रोबोट के लिए नैतिकता के दिशा-निर्देशों को विकसित करने की कोशिश करने के लिए एक साथ बैंडिंग कर रही हैं (हेनिग लेख, देने के लिए बहुत लंबा यहां न्याय, विशेष रूप से तल्लीन और चुनौतीपूर्ण है और मैं इसे सभी के लिए सुझाता हूं)। वाह, गए "स्टार वार्स" से R2-D2 के दिन और इसहाक असिमोव के प्रसिद्ध "लॉज़ ऑफ़ रोबोटिक्स" ("मैं, रोबोट," 1950) से सरल पालन:

  1. एक रोबोट मनुष्य को घायल नहीं कर सकता है या निष्क्रियता के माध्यम से, एक इंसान को नुकसान पहुंचाने की अनुमति देता है।
  2. एक रोबोट को मनुष्यों द्वारा दिए गए आदेशों का पालन करना चाहिए, सिवाय इसके कि इस तरह के आदेश पहले कानून के साथ संघर्ष करेंगे।
  3. एक रोबोट को अपने स्वयं के अस्तित्व की रक्षा करनी चाहिए जब तक कि इस तरह का संरक्षण पहले या दूसरे कानून के साथ संघर्ष नहीं करता है।

इन कानूनों ने विज्ञान कथा लेखकों और रोबोटिक्स डेवलपर्स दोनों को निर्देशित किया है क्योंकि असिमोव ने उन्हें लिखा था। अब, ऐसा लगता है कि, जैसे-जैसे रोबोट विकास तेजी से गति कर रहा है और जटिलता के दायरे में आ रहा है, कि वे पर्याप्त नहीं हैं। हेनिग ने सावधानी के साथ अपना कॉलम समाप्त किया:

"इस विचार में कुछ ख़ास तसल्ली है कि नैतिकता की गणना एक एल्गोरिथ्म द्वारा की जा सकती है: यह घिनौने से आसान है, असभ्य इंसानों को कभी-कभी बनाना पड़ता है। लेकिन शायद हमें रोबोट को नैतिकता की आउटसोर्सिंग के बारे में चिंतित होना चाहिए क्योंकि हमने इसे आसानी से आउटसोर्स किया है। मानव श्रम के कई अन्य रूप। कठिन सवालों को आसान बनाने से हमें विराम देना चाहिए। "

वह निश्चित रूप से, सही है - लेकिन हम, जनता को, "सूचित जनता" बनना चाहिए, ताकि ऐसे निर्णय जो हमारे रोजगार, शिक्षा, स्वास्थ्य सेवा को प्रभावित करेंगे - हमारे पूरे जीवन के बारे में - केवल "बौद्धिक अभिजात वर्ग" द्वारा ही नहीं बनाए जाएंगे। । " हमारे लिए यह "सार्वजनिक रूप से सूचित किया गया" बनने के लिए, हालांकि, काम लेगा - वह काम जो हमें अपने भाग्य को नियंत्रित करने के लिए करना होगा।