एआई के बारे में 11 उद्धरण जो आपको सोचने पर मजबूर कर देंगे

लेखक: Laura McKinney
निर्माण की तारीख: 3 अप्रैल 2021
डेट अपडेट करें: 26 जून 2024
Anonim
IPL 2022 :- KKR, CSK & MI released their STRONGEST 11 ahead of IPL 2022 !
वीडियो: IPL 2022 :- KKR, CSK & MI released their STRONGEST 11 ahead of IPL 2022 !

विषय


स्रोत: लिन शाओ हुआ / ड्रीमस्टाइम डॉट कॉम

ले जाओ:

एआई की उन्नति अपरिहार्य है, और मानवता के लिए जो कुछ भी अनुवाद करता है वह पूरी तरह से स्पष्ट नहीं है। कुछ लोगों का मानना ​​है कि हम एक महान भविष्य की आशा कर सकते हैं, जबकि अन्य यह सोचते हैं कि इसका मतलब है कि हम अपने रोबोट के अधिपतियों द्वारा दमन किए जाने के मार्ग पर हैं। तीसरा परिप्रेक्ष्य वह है जो जोखिमों से अवगत है लेकिन उन्हें प्रबंधनीय माना जाता है।

हम एआई और इसकी परिवर्तनकारी क्षमता के बारे में बहुत कुछ सुनते हैं। हालांकि, मानवता के भविष्य के लिए इसका क्या मतलब है, पूरी तरह से स्पष्ट नहीं है। कुछ भविष्यवादियों का मानना ​​है कि जीवन में सुधार होगा, जबकि दूसरों को लगता है कि यह गंभीर खतरे में है। बीच में स्थितियों का एक स्पेक्ट्रम भी है। यहाँ 11 विशेषज्ञों से लिया गया है।

1. "अब तक, आर्टिफिशियल इंटेलिजेंस का सबसे बड़ा खतरा यह है कि लोग बहुत जल्दी निष्कर्ष निकाल लेते हैं कि वे इसे समझते हैं।" - एलिएजर युडकोव्स्की


मशीन इंटेलिजेंस रिसर्च इंस्टीट्यूट (MIRI) के लिए "आर्टिफिशियल इंटेलिजेंस इन ए पॉजिटिव एंड नेगेटिव फैक्टर इन ग्लोबल रिस्क" शीर्षक वाली युडकोसी की 2002 की रिपोर्ट में यह पहला वाक्य है। जबकि AI शब्द लगभग इतना ही नहीं था, जितना कि अब है, अभी भी प्रौद्योगिकी की क्षमताओं और सीमाओं पर समझ की कमी की समस्या बनी हुई है। वास्तव में, पिछले कुछ वर्षों में, एआई को न केवल समझने योग्य, बल्कि समझाने योग्य बनाने के लिए अधिक धक्का दिया गया है।

2. "जो महत्वपूर्ण है वह एआई के बारे में कुछ भी स्पष्ट कर सकता है, निष्पक्ष, सुरक्षित और वंश के साथ, जिसका अर्थ है कि कोई भी बहुत ही सरलता से देख सकता है कि एआई का कोई भी अनुप्रयोग कैसे विकसित हुआ और क्यों।" - गिन्नी रोमेट्टी

आईबीएम के सीईओ ने 9 जनवरी, 2019 को सीईएस में अपने मुख्य संबोधन के दौरान यह बयान दिया। व्याख्यात्मक एआई की आवश्यकता का पता लगाने की पृष्ठभूमि यह है कि इसे सील ब्लैक बॉक्स के रूप में रखने से प्रोग्रामिंग में बायपास या अन्य समस्याओं की जांच करना असंभव हो जाता है। आईबीएम ने न केवल कंपनियों के लिए कंप्यूटिंग सेवाओं की पेशकश की बल्कि इस समस्या को हल करने की दिशा में काम करने के लिए खुद को रखा है, लेकिन मशीन सीखने की प्रणाली का निर्माण करने वालों के लिए पूर्वाग्रह को कम करने के लिए परामर्श। (एआई के समझे जाने वाले AI के बारे में अधिक जानें


नो बग्स, नो स्ट्रेस - योर स्टेप बाय स्टेप गाइड बाय स्टेप गाइड टू लाइफ-चेंजिंग सॉफ्टवेर विदाउट योर लाइफ

जब कोई भी सॉफ़्टवेयर गुणवत्ता की परवाह नहीं करता है तो आप अपने प्रोग्रामिंग कौशल में सुधार नहीं कर सकते हैं।

3. "चरम खोज इंजन, जो समझेगा, आप जानते हैं कि वास्तव में आप क्या चाहते थे जब आप किसी प्रश्न में टाइप करते हैं, और यह आपको सही सही चीज़ वापस देगा, कंप्यूटर विज्ञान उस कृत्रिम बुद्धिमत्ता को हम कहते हैं। इसका मतलब है कि यह स्मार्ट होगा, और हमारे पास स्मार्ट कंप्यूटर होने से एक लंबा रास्ता है। ” - लेरी पेज

उस समय Google के सह-संस्थापक और मुख्य कार्यकारी अधिकारी ने नवंबर 2002 में पीबीएस न्यूज़होर सेगमेंट के दौरान यह कहा था जिसका शीर्षक था "Google: The Engine Engine जो कर सकता था।" मेजबान ने उस वर्ष में Google की बढ़ती लोकप्रियता पर एक प्रतिबिंब के साथ खोला, जिसमें अमेरिकी बोली थी। समाज ने इसे उपयोग में जोड़े जाने वाली सबसे उपयोगी क्रिया के रूप में स्थान दिया, हालाँकि इसे मेरियम-वेबस्टर की पसंद से पहचाने जाने में कुछ और साल लगेंगे। लेकिन जल्द ही, कंपनी ने एआई का उपयोग करने में अपनी रुचि का संकेत दिया।

4. “एआई के किसी भी उल्लेख या निहितार्थ पर सभी टैक्सों से बचें। हथियार वाला एआई शायद एआई के सबसे संवेदनशील विषयों में से एक है - यदि सबसे ज्यादा नहीं। यह Google को नुकसान पहुंचाने के सभी तरीकों को खोजने के लिए मीडिया को लाल मांस है। " - Fee Fei Li, Google में एक AI पायनियर है, जो प्रोजेक्ट मावेन में कंपनी की भागीदारी के बारे में सहयोगियों में है

Google ने पाया कि AI में एक प्रमुख खिलाड़ी होने के कारण एक नकारात्मक पहलू हो सकता है। जुलाई 2017 में, रक्षा विभाग ने प्रोजेक्ट मावेन के लिए अपने लक्ष्य प्रस्तुत किए। मरीन कॉर्प्स कर्नल ड्रू कूकोर, इंटेलिजेंस, सर्विलांस एंड रिकोनेन्स ऑपरेशंस डायरेक्टोरेट-वारफेयर सपोर्ट इन द इंटेलिजेंस ऑफ द अंडरटेकरेटरी ऑफ डिफेंस ऑफ इंटेलिजेंस के इंटेलिजेंस और सर्विलांस ऑपरेशंस डायरेक्टरेट-वॉरफेयर सपोर्ट इन चीफ ऑफ द इंटेलिजेंस ने साल के लिए अपने निर्धारित लक्ष्य के बारे में बात की: "लोग और कंप्यूटर वस्तुओं का पता लगाने के लिए हथियार प्रणालियों की क्षमता बढ़ाने के लिए सहानुभूतिपूर्वक काम करेंगे। ”

Google इस उपक्रम में भागीदार था, लेकिन - जैसा कि ऊपर दिए गए उद्धरण से संकेत मिलता है - Google कर्मचारियों को यह पसंद नहीं आया। आखिरकार, कंपनी ने दबाव में दम तोड़ दिया और जून 2018 में घोषणा की कि वह रक्षा विभाग के साथ अपने अनुबंध को नवीनीकृत नहीं करेगी। द इंटरसेप्ट रिपोर्ट के अनुसार:

मार्च में गिज़मोडो और द इंटरसेप्ट द्वारा अनुबंध का खुलासा किए जाने के बाद से Google को बढ़ते दबाव का सामना करना पड़ा। लगभग एक दर्जन कर्मचारियों ने विरोध में इस्तीफा दे दिया, और कई हजार ने एक खुले पत्र पर हस्ताक्षर करते हुए घोषणा की कि "Google को युद्ध के व्यवसाय में नहीं होना चाहिए।" 700 से अधिक शिक्षाविदों ने भी एक पत्र पर हस्ताक्षर किए, जिसमें मांग की गई कि "Google DoD के साथ अपना अनुबंध समाप्त करे, और। Google और उसकी मूल कंपनी अल्फाबेट सैन्य तकनीकों को विकसित नहीं करने और उन व्यक्तिगत डेटा का उपयोग नहीं करने के लिए प्रतिबद्ध है जो वे सैन्य उद्देश्यों के लिए एकत्र करते हैं। "

5. "आर्टिफिशियल इंटेलिजेंस लगभग 2029 तक मानव स्तर तक पहुंच जाएगा। इसका पालन करें, कहते हैं, 2045 तक, हमने खुफिया, हमारी सभ्यता के मानव जैविक मशीन इंटेलिजेंस को एक अरब गुना बढ़ा दिया है।" - रे कुर्ज़वील

भविष्यवादी और आविष्कारक ने 2012 के एक साक्षात्कार में यह कहा था जिसमें उन्होंने कंप्यूटिंग शक्ति के माध्यम से अमरता प्राप्त करने के बारे में बात की थी। उन्होंने "अरब-गुना" आंकड़े की पुष्टि की और इसे इस प्रकार समझाया: "यह एक ऐसा विलक्षण परिवर्तन है जिसे हम भौतिकी से इस रूपक को उधार लेते हैं और इसे एक विलक्षणता कहते हैं, जो मानव इतिहास में गहरा विघटनकारी परिवर्तन है। हमारी सोच जैविक और गैर-जैविक सोच का एक संकर बन जाएगी। ”जाहिर है, वह आशावादी भविष्यवादियों में से एक है, जो एक विघटनकारी परिवर्तन का चित्रण करता है जो बहुत लाभ होगा। उन्होंने आगे बताया कि उनका मानना ​​है कि अमरता पहुंच के भीतर है: “हम हर साल एक साल से अधिक समय अपने शेष जीवन प्रत्याशा में जोड़ेंगे, जहां समय की रेत बाहर भागने के बजाय चल रही है, जहां आपकी शेष जीवन प्रत्याशा वास्तव में बाहर फैलती है समय बीतता है।"

6. “कृत्रिम बुद्धि के आगमन का सबसे बड़ा लाभ यह है कि एआई मानवता को परिभाषित करने में मदद करेगा। हमें यह बताने की जरूरत है कि हम कौन हैं। ” - केविन केली

वायर्ड के सह-संस्थापक ने अपनी 2016 की पुस्तक "द इनएविटेबल: अंडरस्टैंडिंग द 12 टेक्नोलॉजिकल फोर्सेज दैट इज शेप आवर अवर फ्यूचर" में इस व्यापक शोध को लिखा है, जैसा कि वह रोबोट द्वारा उठाए जाने वाले स्वचालन और नौकरियों के उदय की कल्पना करता है, वह अनुमान लगाता है कि वहां। इनकार का एक दोहराया चक्र होगा, लेकिन प्रगति अपरिहार्य है, और हमें तदनुसार अनुकूलित करना होगा। जैसा कि उन्होंने आईबीएम के साथ एक साक्षात्कार में समझाया: "एआई के माध्यम से, हम कई नए प्रकार की सोच का आविष्कार करने जा रहे हैं जो जैविक रूप से मौजूद नहीं हैं और जो मानव सोच की तरह नहीं हैं," और कंप्यूटर क्लाउड पर चांदी की परत जिसे वह हाइलाइट करता है यह है: "इसलिए, यह खुफिया मानव सोच को प्रतिस्थापित नहीं करता है, लेकिन इसे बढ़ाता है।"

7. “एआई के साथ वास्तविक जोखिम दुर्भावनापूर्ण नहीं है बल्कि क्षमता है। ए अधीक्षक ए.आई. अपने लक्ष्यों को पूरा करने में बहुत अच्छा होगा, और यदि उन लक्ष्यों को हमारे साथ गठबंधन नहीं किया जाता है, तो हम मुसीबत में हैं। आप शायद एक दुष्ट विरोधी हेटर नहीं हैं जो चींटियों को द्वेष से बाहर निकालता है, लेकिन यदि आप एक पनबिजली हरी ऊर्जा परियोजना के प्रभारी हैं और क्षेत्र में एक एंथिल को बाढ़ में डाल दिया जाता है, तो चींटियों के लिए बहुत बुरा है। उन चींटियों की स्थिति में मानवता को जगह न दें। ” - स्टीफन हॉकिंग

यह उद्धरण 2015 की शुरुआत का है। यह एक स्टीफन हॉकिंग ने Reddit AMA (आस्क मी एनीथिंग) Q & A सत्र के दौरान पेश किए गए एक प्रश्न से एक शिक्षक से प्रश्न पूछा था, जो जानना चाहता था कि उसकी कक्षाओं में आने वाली कुछ AI चिंताओं को कैसे हल किया जाए। निम्नलिखित:

आप मेरी अपनी मान्यताओं का मेरी कक्षा में कैसे प्रतिनिधित्व करेंगे? क्या हमारे दृष्टिकोण सामंजस्यपूर्ण हैं? क्या आपको लगता है कि लेपर्सन टर्मिनेटर-शैली "बुराई एआई" को छूट देने की मेरी आदत भोली है? और अंत में, आपको क्या लगता है कि मुझे एआई में रुचि रखने वाले अपने छात्रों के लिए मजबूत होना चाहिए?

हॉकिंग मानवता पर एआई के संभावित विनाशकारी प्रभावों के बारे में कुछ चिंता दिखाते हैं, हालांकि वह मानते हैं कि अगर हम इसके लिए योजना बनाते हैं, तो जोखिम को प्रबंधित किया जा सकता है, कुछ अन्य लोगों द्वारा साझा किया गया एक दृश्य। (इस बारे में अधिक जानकारी के लिए, देखें कि क्यों सुपरिन्टिविजुअल AIs जल्द ही इंसानों का विनाश नहीं करेंगे।)

8. "आप कैसे सुपर बुद्धिमान जानना चाहते हैं cyborgs सामान्य मांस और रक्त मनुष्यों का इलाज कर सकता है? मनुष्य अपने कम बुद्धिमान जानवर के चचेरे भाईयों के साथ कैसा व्यवहार करता है, इसकी पड़ताल करके बेहतर शुरुआत करें। यह निश्चित रूप से एक आदर्श सादृश्य नहीं है, लेकिन यह सबसे अच्छा प्रतीक है जिसे हम वास्तव में केवल कल्पना के बजाय देख सकते हैं। ” - युवल नूह हरारी

प्रोफेसर हरारी ने अपनी 2017 की किताब, "होमो डेस: ए ब्रीफ हिस्ट्री ऑफ टुमॉरो" में उस घोषणा को लागू किया। उनका नजरिया सकारात्मक भविष्यवादियों से अलग है, जिसमें उन्होंने उस डेटावाद के उदय का चित्रण किया है, जिसमें मनुष्य उन्नत भूमि को उन्नत बनाते हैं। कृत्रिम होशियारी। हम हॉकिंग के स्पष्टीकरण में चींटियों की स्थिति के लिए बाध्य हैं। यह एक सर्वव्यापी और सर्वज्ञ "ब्रह्मांडीय डेटा-प्रसंस्करण प्रणाली" के प्रभुत्व वाला भविष्य है, और प्रतिरोध निरर्थक है।

9. “हमें कृत्रिम बुद्धिमत्ता में अत्याधुनिक अनुसंधान द्वारा व्यक्तिगत और सामूहिक रूप से, नैतिक और नैतिक मुद्दों को संबोधित करना चाहिए जैव प्रौद्योगिकी, जो महत्वपूर्ण जीवन विस्तार, डिजाइनर शिशुओं और स्मृति निष्कर्षण को सक्षम करेगा। " - क्लाउस श्वाब

श्वाब ने जनवरी 2016 में चौथी औद्योगिक क्रांति पर अपने विचार प्रकाशित किए। सकारात्मक भविष्यवादियों की तरह, उन्होंने कल्पना की कि भविष्य "भौतिक, डिजिटल और जैविक दुनिया को उन तरीकों से फ्यूज करेगा जो मानव जाति को मौलिक रूप से बदल देंगे।" लेकिन उन्होंने इसे स्वीकार नहीं किया। ऐसा "परिवर्तन सकारात्मक है," लोगों को दोनों तरह के जोखिमों और अवसरों के बारे में जागरूकता के साथ आगे की योजना बनाने का आग्रह करता है।

10. "मानवता के सर्वश्रेष्ठ और बुरे दोनों को प्रतिबिंबित करने के लिए एआई की क्षमता के बारे में बहुत कुछ लिखा गया है। उदाहरण के लिए, हमने AI को अकेले में बातचीत और आराम प्रदान करते हुए देखा है; हमने एआई को नस्लीय भेदभाव में उलझा हुआ भी देखा है। फिर भी सबसे बड़ी हानि जो एआई को अल्पावधि में व्यक्तियों को करने की संभावना है, वह है नौकरी विस्थापन, क्योंकि एआई के साथ हम जो काम कर सकते हैं, वह पहले की तुलना में काफी बड़ा है। नेताओं के रूप में, यह सुनिश्चित करने के लिए हम सभी पर अवलंबी है कि हम एक ऐसी दुनिया का निर्माण कर रहे हैं जिसमें हर व्यक्ति को पनपने का अवसर मिले। ” - एंड्रयू एनजी

स्टैनफोर्ड आर्टिफिशियल इंटेलिजेंस लेबोरेटरी के पूर्व निदेशक, Google ब्रेन टीम के संस्थापक लीड, एंड्रयू एनजी ने 2016 में यह उद्धरण "व्हाट आर्टिफिशियल इंटेलिजेंस कैन एंड कैन डू डू राइट राइट," से आया है, जब उन्होंने 2016 में हार्वर्ड बिजनेस रिव्यू के लिए लिखा था। Baidu की AI टीम का समग्र नेतृत्व था। (2017 में वह लैंडिंग एआई के संस्थापक और निदेशक बन गए।) यह एआई की क्षमताओं और सीमाओं के बारे में बताता है जैसा कि तब था, और आज भी प्रासंगिक है। जबकि एनजी एक डेटा-वर्चस्व वाले डायस्टोपियन भविष्य को प्रस्तुत नहीं कर रहा है, वह इस बात से सहमत है कि जो लोग इसे विकसित करते हैं, उनके दोनों इच्छित और अनपेक्षित परिणामों की पूरी समझ के साथ इसे जिम्मेदारी से लागू करने की जिम्मेदारी है।

11. "कोई कारण नहीं है और कोई रास्ता नहीं है कि एक मानव मन 2035 तक एक कृत्रिम बुद्धिमान मशीन के साथ रख सकता है।" - ग्रे स्कॉट

यह उद्धरण गलत नहीं है, हालांकि यह उस तरह से विचलित करता है जैसे आप इसे कहीं और ऑनलाइन देखेंगे क्योंकि यह हमेशा "कोई कारण नहीं है और कोई रास्ता नहीं है कि एक मानव मन 2035 तक एक कृत्रिम बुद्धि मशीन के साथ रख सकता है।" कहानी। डिजिटल स्रोतों में यह कितना पीछे दिखाई देता है, इस आधार पर इसे 2015 में कहा गया था। हालाँकि, मैं इस अवधि के बाद से s और वीडियो के माध्यम से खोज के घंटों के बाद भी इसे किसी विशेष कॉन तक पिन नहीं कर सकता। इसलिए मैंने स्रोत से पूछने के लिए खुद स्कॉट से संपर्क किया। उन्होंने स्वीकार किया, "मुझे याद नहीं है कि पहली बार कब मैंने यह कहा था या यह कहाँ था।" लेकिन उन्होंने अपने शब्दों को याद करते हुए कहा: "उद्धरण हमेशा गलत रहा है। इसे should आर्टिफिशियल इंटेलिजेंट पढ़ना चाहिए। '