Browse parent directory
२०२५-०२-२०
# मेरी AI टाइमलाइन
**अस्वीकरण**
- मैं गहरा डीप लर्निंग विशेषज्ञ नहीं हूँ। मैं LLM, RNN, CNN आदि के सिद्धांत समझता हूँ, पर मेरे पास बड़े मॉडलों को ट्रेन करने या बड़े डेटासेट क्यूरेट करने या मूल डीएल (DL) शोध करने का अनुभव नहीं है।
- कृपया मेरी राय के अलावा बहुत से अन्य लोगों की राय भी जानें। [इस सूची](https://www.safe.ai/work/statement-on-ai-risk) में शामिल कई हस्तियों ने अपने-अपने बयान दिए हैं। उनके पॉडकास्ट, ब्लॉगपोस्ट, शोध प्रकाशन आदि खोजें। Lesswrong भी एक अच्छा मंच है।
- मैं अत्यधिक अनुशंसा करता हूँ कि आप इस विषय पर अपना स्वतंत्र मत बनाएँ, और किसी भी व्यक्ति के विचारों को आँख बंद करके न अपनाएँ, चाहे वे कितने भी बुद्धिमान या भरोसेमंद क्यों न हों। अगर ज़्यादा लोग स्वतंत्र राय बनाते, तो यह क्षेत्र और ज़्यादा स्पष्ट लगता। (और हाँ, एक अच्छा मत बनाना काफी समय और मेहनत माँगता है, आपको तय करना होगा कि यह आपके लिए व्यक्तिगत रूप से कितना सार्थक निवेश है।)
यह दस्तावेज़ मुख्य रूप से Lesswrong (LW) रेशनलिस्टों / प्रभावी परोपकारियों (effective altruists) / निकटस्थ लोगों के लिए लिखा गया है, क्योंकि मेरा बहुत-सा काम उनकी संस्कृति से प्रभावित है, और मेरे संभावित शोध सहयोगियों में से कई उन्हीं समुदायों में हैं। यदि आपने उनकी सामग्री पहले नहीं पढ़ी है, तो हो सकता है यह डॉक्यूमेंट उतना स्पष्ट न लगे।
इस डॉक्यूमेंट की अधिकांश बातें अंदाज़ों पर आधारित हैं, न कि ऐसे मॉडल पर जिनपर मुझे बहुत विश्वास हो। कुछ छोटे-छोटे प्रमाण भी यहाँ मेरी पूरी विचारधारा को उलटने में सक्षम हो सकते हैं।
**यदि आपके पास मेरे दृष्टिकोण को गलत साबित करने वाले प्रमाण हैं, तो कृपया मुझे ज़रूर बताएँ।** AI के बारे में मुझे सोचने में और समय न लगाना पड़े, तो मेरी जीवन-गुणवत्ता बढ़ जाएगी। मैं बिलकुल गंभीर हूँ; यदि आप मुझे इस बात पर राज़ी कर लें कि मेरा वर्तमान मत गलत है, तो मैं आपको मरते दम तक धन्यवाद दे सकता हूँ। मैं आपको कम से कम $1000 दे सकता हूँ यदि आप मुझे वास्तविक रूप से मनवा पाते हैं, हालाँकि यदि आप सचमुच भुगतान चाहते हैं तो हमें विवरणों पर बात करनी होगी।
मैंने इस विषय पर आखिरी बार 2023 की शुरुआत में शोध-पत्र पढ़े थे, हो सकता है कि मैं ताज़ा शोध से परिचित न हूँ। यदि आपके पास कोई प्रासंगिक जानकारी है, तो निःसंकोच मुझे भेजें। मैंने 2023 के बाद से इस विषय पर अपनी राय ज़्यादा अपडेट नहीं की है, हालाँकि यह क्षेत्र तेज़ी से आगे बढ़ा है।
---
**मेरी ~15% संभावना है कि मानवता 2030 तक कृत्रिम सुपरइंटेलिजेंस (ASI) बना लेगी।**
- यदि ऐसा होता है, तो यह मानव इतिहास के ~10,000 वर्षों में सबसे महत्वपूर्ण घटना होगी, अलग-अलग पैमानों पर। (यदि बुद्धिमत्ता का अंतर बेहद बड़ा हो, तो सम्भव है यह ब्रह्मांड के ~14 अरब वर्षीय इतिहास की सबसे महत्वपूर्ण घटना बन जाए। हालाँकि इसकी संभावना मुझे छोटी लगती है।)
- यह अधिक संभावना से ट्रांसफॉर्मर + डेटा और कम्प्यूट स्केलिंग से होगा।
- मैं कृत्रिम सुपरइंटेलिजेंस को वह AI परिभाषित करता हूँ, जो लैपटॉप और इंटरनेट एक्सेस वाली इंसान की सर्वश्रेष्ठ क्षमताओं से भी हर कार्य में बेहतर हो।
- मेरे सामान्य चेतावनी संदेश को याद रखें कि भविष्यवाणियाँ वास्तविकता को प्रभावित कर सकती हैं। यदि आप ASI बनाने की दिशा में काम कर रहे हैं, तो कृपया ऐसा न करने पर विचार करें या कम से कम मुझसे एक बार इस बारे में बात करें। मैं नहीं चाहता कि 2030 तक ASI बने, जब तक समाज के कई पहलुओं में बदलाव न आ जाएँ।
**शर्त मान लें कि 2030 तक ASI बनता है, तो ~30% संभावना है कि यह जल्द ही पृथ्वी के सभी लोगों का सफाया कर देगा।** कुल मिलाकर इसका मतलब हुआ ~5% संभावना कि 2030 तक मानवता को ASI ख़त्म कर देगा।
मैंने स्वयं इस समस्या पर काम न करने का निर्णय लिया है। यह इस तथ्य का परिणाम है कि ~15% की संभावना मेरे लिए काफी बड़ी नहीं है और यह विषय मेरे उत्साह को उतना नहीं पकड़ता। मैं वह नहीं हूँ जो हमेशा सबसे बड़ी समस्या ही सुलझाना चाहता है, हालांकि मुझे बड़ी समस्याओं पर काम करना पसंद है। यदि आप AGI/ASI की सुरक्षा पर काम कर रहे हैं, तो मुझे लगता है कि आप बहुत महत्त्वपूर्ण काम कर रहे हैं और मैं इसकी सराहना करता हूँ।
---
## मेरे विश्वास के कारण
*(सर्वसम्मति बनाने पर एक छोटा सा विचार)*: इन दोनों संभावनाओं (ASI आने और उसके जोखिम) में कुछ ऐसा है जिसे मैं गहरी प्राथमिकताएँ (deep priors) कहता हूँ। जैसे, “मान लीजिए मैंने मंगल की एक यादृच्छिक फोटो ली और उसकी एक यादृच्छिक पिक्सेल चुनी। उस पिक्सेल का ग्रीन कम्पोनेंट ब्लू कम्पोनेंट से अधिक होने की संभावना कितनी है?” जब किसी सवाल से जुड़े उपयोगी आँकड़े कम हों और हमें अपने जीवन में देखी हुई लगभग बेकार-लेकिन-कुछ-हद-तक-फ़ायदेमंद सूचनाओं पर निर्भर रहना पड़ता है, तो लोग इस तरह की प्राथमिकताओं में काफ़ी भिन्न होते हैं। इन सबसे गहरा प्राथमिकता (deepest prior) वह है जिसे [“यूनिवर्सल प्रायर”](https://en.wikipedia.org/wiki/Solomonoff%27s_theory_of_inductive_inference) कहा जाता है।
~15% उन लोगों से कम है जो EA/LW समुदायों में ज्यादा संभावना रखते हैं, क्योंकि मैं उन विशिष्ट मॉडलों को स्वीकार नहीं करता जिनसे वे ASI की अधिक संभावना का अनुमान लगाते हैं।
- मानवीय दिमाग में कुल न्यूरॉन्स की संख्या का ASI बनाने के लिए आवश्यक कम्प्यूट से कोई लेना-देना नहीं है, क्योंकि मानव मस्तिष्क को प्राकृतिक विकास (evolution) نے बनाया, और उसमें एक व्यक्तिगत दिमाग से कहीं ज़्यादा कम्प्यूट लगा।
- किसी का प्रस्ताव मुझे ऐसा नहीं लगता जो इन-सिलिकॉन जैविक विकास (biological evolution) को पुन:सर्जित करने में सफल हो सके। आरंभिक स्थितियों को कैसे सेट किया जाएगा? पर्यावरण की सिमुलेशन के लिए कितना कम्प्यूट चाहिए? मुझे नहीं दिखा कि ये सब विवरण ग़ैर-महत्वपूर्ण कैसे हो सकते हैं।
- मेरा एक पूर्वानुमान यह है कि जिन STEM खोजों के बहुत साहसिक परिणामों का दावा होता है, वे आमतौर पर असफल ही रहती हैं। यह अपवाद नहीं बल्कि सामान्य नियम है। इस पूर्वानुमान को समझने के लिए आपको पिछले 100 वर्षों की असफल खोज परियोजनाओं पर जाना होगा और महसूस करना होगा कि उस समय पैदा होने पर वह रिसर्च एजेंडा आपको कैसा लगता।
- (अपडेट, श्रेय: किसी LW यूज़र को) मैंने कुछ तर्क न्यूरोसाइंस के देखे हैं जो कहते हैं कि न्यूरॉन्स (या उन्हें बनाने वाली आनुवांशिक जानकारी) में वह सबकुछ इनबिल्ट नहीं होता जो इंसानी बुद्धि पैदा करता है, बल्कि बहुत कुछ जन्म के बाद सीखा जाता है। मैं इस प्रकार की दलीलों के लिए खुला हूँ, पर शायद सही मूल्यांकन के लिए मुझे न्यूरोसाइंस का अध्ययन करना पड़ेगा।
[मानव इतिहास में असंतत प्रगति पर कटजा ग्रेस का शोध](https://www.lesswrong.com/posts/CeZXDmp8Z363XaM6b/discontinuous-progress-in-history-an-update) इस विषय पर एकमात्र ऐसा काम दिखा जो तकनीकी शोध एजेंडा में कट्टरपंथी (radical) परिणामों की संभावना को परखने की कोशिश करता है। हालाँकि, मैंने इसी तरह के दूसरे शोध अधिक खोजे नहीं हैं। मुझे मनाने के लिए शायद इस तरह के और कामों को छापना या मेरी नज़र में लाना पड़ेगा।
दूसरा तरीका यह है कि आप मुझे कोई गहराई-भरा मॉडल दिखाएँ जो बताए कि LLM स्केलिंग लॉ empirically क्यों सही पाये गए।
~15% उन बहुत से AI शोधकर्ताओं के अनुमान से ज़्यादा है, जो यह तर्क देते हैं कि LLM स्केलिंग से ASI संभव ही नहीं है। ऐसा इसलिए कि मैं उनके बहुत से कारणों को खारिज करता हूँ:
- मैंने ऐसे तर्क देखे हैं कि कुछ अनसुलझे प्रश्न बहुत “कठिन” हैं, और पहले से हल हो चुके प्रश्नों से उनकी तुलना नहीं की जा सकती। इसलिए वे मानते हैं कि LLM उन्हें हल नहीं कर सकते।
- लेकिन जिन प्रश्नों को LLM पहले से हल कर चुके हैं, वहाँ भी नहीं पता था कि वास्तव में वे LLM से हल हो जाएँगे या नहीं। LLM स्केलिंग मेरे लिए “ब्लैक मैजिक” जैसा रहा है; इसके समर्थक और विरोधी दोनों सही अनुमान लगाने में नाकाम रहे हैं कि कौन से प्रश्न हल होंगे और कौन से नहीं। सिर्फ़ लॉस कर्व की भविष्यवाणी बताती नहीं कि कौन सा प्रश्न हल होगा या नहीं।
- कुछ लोग कहते हैं कि LLM की आर्किटेक्चर सीमा (जैसे प्रति फॉरवर्ड पास कंप्यूट या “मेमोरी एक्सेस” और “कंप्यूट” का अनुपात) इसकी बाधा है। पर असल समस्याओं के हल में कई फॉरवर्ड पास, नॉन-LLM स्कैफ़ोल्डिंग या नॉन-सेल्फ-अटेंशन लेयर जोड़े जा सकते हैं। उदाहरण के लिए, आप एक मॉडल में सेल्फ-अटेंशन लेयर और CNN लेयर दोनों जोड़कर ट्रेन कर सकते हैं और अच्छा परफ़ॉर्मेंस पा सकते हैं।
- कुछ लोग कहते हैं कि हम वह डेटा ही नहीं जुटा पाएँगे, जिसकी आवश्यकता स्केलिंग लॉ के हिसाब से पड़ती है। यह बात शायद सही भी हो, मुझे निश्चित रूप से नहीं पता (और इस तर्क का मूल्यांकन करने के लिए मैं पर्याप्त विशेषज्ञ नहीं हूँ)। पर मेरा अनुमान है कि आप पहले किसी मॉडल को छोटे डेटासेट पर साधारण तर्क सिखाकर, फिर उसी मॉडल को बड़े डेटासेट में अंतराल भरने के लिए उपयोग कर, अंततः और कठिन तर्क सिखा सकते हैं। शायद इस तरह डेटा की कमी का हल निकाला जा सकता है।
ASI 2030 तक आने की स्थिति में मानवता के सफाए की ~30% संभावना रखने का कारण यह है कि मैं कुछ LW रेशनलिस्टों की तुलना में “ASI को बॉक्स” करने को लेकर अधिक आशावादी हूँ। हालाँकि मैं मानता हूँ कि असंतुलित (misalignment) स्वाभाविक रूप से बहुत संभव है।
- आइंस्टीन, चर्चिल, या हिटलर की बुद्धि और एक “हाइपर-पर्सुएसिव” AI की बुद्धि में अंतर काफ़ी बड़ा हो सकता है, खासकर जब हम अभी तक देखे गए स्केलिंग में हुए बुद्धिमत्ता-इज़ाफ़े से उसकी तुलना करते हैं। मुझे पता है बुद्धिमत्ता के लिए कोई “नैचुरल स्केल” नहीं है। पर मैं मानता हूँ कि सिद्धांत रूप में एक इतना प्रभावशाली AI हो सकता है कि वह सिर्फ़ बोलकर किसी भी इंसान के दिमाग़ पर पूरा नियंत्रण कर ले।
- मैं मानता हूँ कि ASI को बॉक्स करने वाले लोग बहुत कुशल होंगे। ASI इतनी जल्दी या चुपचाप नहीं आ जाएगा। इस दशक में ASI बनाने वाली लैब में ऐसे लोग ज़रूर होंगे जो इसकी सम्भावना को गंभीरता से लेते हैं।
- मुझे लगता है, एक बार यदि हमने ASI को किसी सीमित वातावरण (बॉक्स) में बना लिया और उसकी सुरक्षा में कमी के ठोस प्रमाण दिखे, तो ASI पर काम को रोकना (pause) राजनीतिक रूप से संभव हो जाएगा, बल्कि ज़ाहिर-सा लगेगा। मुझे राजनीति की, शायद, औसत LW यूज़र से बेहतर समझ है।
- मुझे इस बात पर कुछ संशय है कि AI हार्डवेयर-सॉफ़्टवेयर के सार (abstraction) को कैसे देखेगा। वह कब “XYZ असेंबली वेरिएबल को अधिकतम करना” को “XYZ की नींव में मौजूद सेमीकंडक्टर में इलेक्ट्रॉनों की स्थिति अधिकतम करो” में अनुवाद करेगा? मेरा अनुमान है कि AI इसका ज्ञान रख सकता है, पर उसके बाद वह क्या करेगा, यह अनिश्चित है। मैं मानता हूँ कि एक ASI समझ सकता है कि उसके वेरिएबल वास्तव में इलेक्ट्रॉनों की स्थिति हैं, पर इसमें भी और क्या-क्या पेचिदगियाँ हो सकती हैं, यह स्पष्ट नहीं।