महान भौतिकशास्त्री स्टीफन हॉकिंग ने कहा है कि विज्ञान और टेक्नोलॉजी की उन्नति मानवता के लिए सबसे बड़ा खतरा है. यानी कि जिस विज्ञान को आप मानवता का रक्षक और तारणहार समझते रहे हैं वही आने वाले वक्त में इसके विनाश का कारण बन सकता है. यह बात आप मजाक समझकर खारिज कर सकते थे लेकिन जिसने ये बात कही है उसे आधुनिक आइंस्टाइन कहा जाता है, तो आप इसे आसानी से खारिज भी नहीं कर सकते हैं. आइए जानें ऐसा क्यों कह रहे हैं हॉकिंग.

आखिर क्यों है मानवता को विज्ञान से खतराः

हाल ही में ब्लैक होल्स की प्रकृति पर अपने लेक्चर के दौरान जब स्टीफन हॉकिंग से पूछा गया कि दुनिया का अंत कैसे होगा, प्राकृतिक या फिर इसका अंत मनुष्य करेगा? इसके जवाब में हॉकिंग ने कहा मानवता के सामने आने वाले ज्यादातर खतरे विज्ञान और टेक्नोलजी की उन्नति द्वारा पैदा होते हैं. इनमें परमाणु युद्ध, प्रलयकारी ग्लोबल वॉर्मिंग और जेनेटकली इंजीनियर्ड वायरस जैसे खतरे शामिल हैं.

धरती पर होने वाले प्रलय को अगले 1000 से 10 हजार वर्षों तक में ‘लगभग निश्चित’ करार देते हुए कैम्ब्रिज यूनिवर्सिटी के प्रोफेसर हॉकिंग ने कहा कि इससे मानवता का अंत नहीं होगा क्योंकि तब तक इंसानों के अंतरिक्ष और दूसरे तारों पर बस जाने की संभावना है. हॉकिंग ने मजाकिया लहजे में कहा,’हालांकि हम कम से कम अगले 100 वर्षों में अंतरिक्ष में अपने लिए कॉलोनियां नहीं बसाएंगे, इसलिए इस दौरान हमें बेहद सावधान रहने की जरूरत है.’

हॉकिंग ने हालांकि कहा कि हम उन्नति को रोक नहीं सकते इसलिए हमें खतरों की पहचान कर उन पर रोक लगाने की जरूरत है. उन्होंने कहा,‘हम उन्नति को नहीं रोकने जा रहे हैं, या इसे पीछे नहीं ले जा सकते हैं, ‘इसलिए हमें खतरों को पहचाने और उन्हें नियंत्रित करने की जरूरत है. मैं एक आशावादी हूं, मुझे विश्वास है कि हम यह कर सकते हैं.’

मशीनों को बुद्धिमान बनाना खतरनाक?

स्टीफन हॉकिंग आर्टिफिशियल इंटेलिजेंस (AI) को लेकर खासे चिंतित हैं. पहले तो आप ये जान लीजिए कि आर्टिफिशियल इंटेलिजेंस (कृत्रिम बुद्धिमत्ता) है क्या? दरअसल आर्टिफिशियल इंटेलिजेंस मशीनों या सॉफ्टवेयर द्वारा प्रदर्शित इंटेलिजेंस है. साथ ही यह उस अकैडमिक फील्ड ऑफ स्टडी का भी नाम है जोकि इस बात का अध्ययन करती है कि कैसे बुद्धिमानी भरा व्यवहार करने वाले कम्प्युटर्स और कम्प्युटर सॉफ्टवेयर का निर्माण किया जाए.

हालांकि हॉकिंग खुद आर्टिफिशियर इंटेलिजेंट बनाए जाने के पक्षधर हैं लेकिन वह इसके खतरों के प्रति आगाह भी करते हैं और कहते हैं, ‘हमें AI का लक्ष्य पूरी तरह अनिर्दिष्ट आर्टिफिशियल इंटेलिजेंस बनाने की जगह लाभकारी इंटेलिजेंस बनाने की ओर परिवर्तित कर देना चाहिए. हॉकिंग ने लिखा,’यह जानने में दशकों लग सकते हैं कि इसे कैसे करना है, इसलिए इसे आज ही करना शुरू करते हैं बजाय के उस रात को जिस दिन पहला ताकतवर AI स्विच ऑन हो.’

हॉकिंग का कहना है कि चिंता इस बात की नहीं है कि कोई शैतान वैज्ञानिक लैब में किसी खतरनाक और अनैतिक मशीन का निर्माण करेगा बल्कि डर इस बात का है कि सही उद्देश्यों के लिए बनाई गई मशीन में खराबी आ जाने पर ये अप्रत्यक्ष रूप से मानवता को नुकसान पहुंचा सकती है. उनका कहना है, ‘AI के साथ असली खतरा द्वेष का नहीं बल्कि सामर्थ्य का है. एक सुपरइंटेलिजेंट AI अपने लक्ष्यों को पूरा करने के लिए बहुत अच्छा होगा लेकिन अगर ये लक्ष्य आपके साथ कतारबद्ध नहीं हैं तो आप मुश्किल में होंगे.’

हॉकिंग ने लिखा, ‘आप शायद चीटिंयों से नफरत करने वाले बुरे व्यक्ति नहीं है जो उन्हें द्वेष के कारण कुचलते हैं लेकिन अगर आप उस क्षेत्र की पनबिजली ग्रीन एनर्जी प्रोजेक्ट के इंचार्ज हैं, जहां बाढ़ आने वाली है और जो चींटियों का गढ़ है, तो ये चीढ़ियों के लिए बहुत बुरी बात होगी. इसलिए हमें मानवता को उन चींटियों की स्थिति में नहीं खड़ा करना चाहिए.’

या यूं कहें कि हॉकिंग विज्ञान और टेक्नोलॉजी की उन्नति के खिलाफ नहीं है लेकिन साथ ही वह इसे तार्किक ढंग से किए जाने पर भी जोर देते हैं. ताकि मानवता की भलाई के लिए बनाई जा रही विज्ञान की उन्नत टेक्नोलॉजी उसके विनाश का ही कारण न बन जाए.


लाइक करें :-


Urdu Matrimony - मुस्लिम परिवार में विवाह के लिए अच्छे खानदानी रिश्तें ढूंढे - फ्री रजिस्टर करें

कमेंट ज़रूर करें