Home Latest News एआई मॉडल सामान बनाते हैं। मतिभ्रम को कैसे नियंत्रित किया जा सकता है?

एआई मॉडल सामान बनाते हैं। मतिभ्रम को कैसे नियंत्रित किया जा सकता है?

by PoonitRathore
A+A-
Reset

[ad_1]

इसे रखने के दयालु तरीके हैं। उपयोगकर्ताओं को दिए गए अपने निर्देशों में, OpenAI ने चेतावनी दी है कि ChatGPT “गलतियाँ कर सकता है”। अमेरिकी AI कंपनी एंथ्रोपिक का कहना है कि उसका LLM क्लाउड “गलत या हानिकारक जानकारी प्रदर्शित कर सकता है”; गूगल का मिथुन उपयोगकर्ताओं को “अपनी प्रतिक्रियाओं को दोबारा जांचने” की चेतावनी देता है। मुख्य बात यह है: एआई-जनरेटेड टेक्स्ट कितना भी धाराप्रवाह और आत्मविश्वास से भरा क्यों न हो, फिर भी उस पर भरोसा नहीं किया जा सकता है।

मतिभ्रम के कारण वास्तविक दुनिया में एआई सिस्टम पर भरोसा करना कठिन हो जाता है। समाचार-जनरेटिंग एल्गोरिदम में गलतियाँ गलत सूचना फैला सकती हैं। छवि जनरेटर ऐसी कला का उत्पादन कर सकते हैं जो कॉपीराइट का उल्लंघन करती है, भले ही ऐसा न करने को कहा जाए। ग्राहक-सेवा चैटबॉट रिफंड का वादा कर सकते हैं जो उन्हें नहीं करना चाहिए। (2022 में एयर कनाडा के चैटबॉट ने एक शोक नीति बनाई, और इस फरवरी में एक कनाडाई अदालत ने पुष्टि की है कि एयरलाइन को बिल का भुगतान करना होगा।) और निदान या नुस्खे के लिए उपयोग किए जाने वाले एआई सिस्टम में मतिभ्रम जान ले सकता है।

सभी पत्तियाँ भूरी हैं

परेशानी यह है कि वही क्षमताएं जो मॉडलों को मतिभ्रम करने की अनुमति देती हैं वही उन्हें इतना उपयोगी बनाती हैं। एक के लिए, एलएलएम “जेनरेटिव” एआई का एक रूप है, जिसका शाब्दिक अर्थ है कि वे नई समस्याओं को हल करने के लिए चीजें बनाते हैं। वे वर्णों या टोकन के टुकड़ों के लिए संभाव्यता वितरण का उत्पादन करके ऐसा करते हैं, यह बताते हुए कि यह कितनी संभावना है प्रत्येक संभावित टोकन अपनी शब्दावली में आगे आएगा। गणित निर्देश देता है कि प्रत्येक टोकन में चुने जाने का एक गैर-शून्य मौका होना चाहिए, जिससे मॉडल को नए पैटर्न सीखने में लचीलापन मिलता है, साथ ही गलत बयान उत्पन्न करने की क्षमता भी मिलती है। मौलिक समस्या यह है कि भाषा मॉडल संभाव्य हैं, जबकि सच्चाई यह नहीं है।

यह तनाव कई तरीकों से प्रकट होता है। एक यह है कि एलएलएम को एक खोज इंजन या विश्वकोश की तरह सही याद रखने के लिए नहीं बनाया गया है। इसके बजाय, क्योंकि किसी मॉडल का आकार उसके प्रशिक्षण डेटा के आकार से बहुत छोटा होता है, यह संपीड़ित करके सीखता है। मॉडल अपने प्रशिक्षण डेटा की एक धुंधली तस्वीर बन जाता है, मुख्य विशेषताओं को बरकरार रखता है लेकिन बहुत कम रिज़ॉल्यूशन पर। कुछ तथ्य धुंधला होने से बचते हैं – उदाहरण के लिए, “पेरिस”, हमेशा “फ्रांस की राजधानी है” शब्दों के बाद उच्चतम संभावना वाला टोकन हो सकता है। लेकिन कई और तथ्य जो सांख्यिकीय रूप से कम स्पष्ट हैं, उन्हें मिटाया जा सकता है।

जब एक पूर्व-प्रशिक्षित एलएलएम को “ठीक-ठीक” किया जाता है, तो आगे की विकृतियाँ संभव होती हैं। यह प्रशिक्षण का एक बाद का चरण है जिसमें मॉडल के वजन, जो प्रशिक्षण डेटा में शब्दों और वाक्यांशों के बीच सांख्यिकीय संबंधों को एन्कोड करते हैं, एक विशिष्ट कार्य के लिए अद्यतन किए जाते हैं। मतिभ्रम यदि एलएलएम को ठीक-ठाक किया जाए तो यह बढ़ सकता है, उदाहरण के लिए, बातचीत की प्रतिलेखों पर, क्योंकि मॉडल चीजों को दिलचस्प बनाने की कोशिश कर सकता है, जैसे एक बातूनी इंसान हो सकता है। (बस उदाहरणों को ठीक-ठाक करके शामिल करें जहां मॉडल कहता है ” मुझे नहीं पता” मतिभ्रम के स्तर को नीचे रखता प्रतीत होता है।)

किसी मॉडल के वज़न के साथ छेड़छाड़ करने से मतिभ्रम कम हो सकता है। एक विधि में डेटा पर प्रशिक्षित एक जानबूझकर त्रुटिपूर्ण मॉडल बनाना शामिल है जो संकेत का खंडन करता है या उसमें ऐसी जानकारी का अभाव होता है। शोधकर्ता तब त्रुटिपूर्ण मॉडल के वजन को घटा सकते हैं, जो आंशिक रूप से इसके आउटपुट के लिए जिम्मेदार होते हैं, मूल के वजन से एक ऐसा मॉडल बनाने के लिए जो कम मतिभ्रम करता है।

किसी मॉडल के “तापमान” को बदलना भी संभव है। कम तापमान एक मॉडल को अधिक रूढ़िवादी बनाता है, इसे सबसे संभावित शब्द का नमूना लेने के लिए प्रोत्साहित करता है। उच्च तापमान इस चयन की यादृच्छिकता को बढ़ाकर इसे और अधिक रचनात्मक बनाता है। यदि लक्ष्य कम करना है मतिभ्रम, तापमान शून्य पर सेट किया जाना चाहिए। एक और तरकीब यह है कि विकल्प को केवल शीर्ष-रैंक वाले टोकन तक सीमित किया जाए। इससे खराब प्रतिक्रियाओं की संभावना कम हो जाती है, जबकि कुछ यादृच्छिकता और इसलिए, विविधता की भी अनुमति मिलती है।

चतुर संकेत भी मतिभ्रम को कम कर सकता है। Google DeepMind के शोधकर्ताओं ने पाया कि एलएलएम को “गहरी सांस लेने और इस समस्या पर चरण-दर-चरण काम करने” के लिए कहने से मतिभ्रम कम हो गया और विशेष रूप से गणित की समस्याओं के समाधान में सुधार हुआ। यह क्यों काम करता है इसके लिए एक सिद्धांत यह है कि एआई मॉडल पैटर्न सीखते हैं किसी समस्या को छोटी-छोटी समस्याओं में विभाजित करने से, यह अधिक संभावना है कि मॉडल सही समस्या को पहचानने और लागू करने में सक्षम होगा। लेकिन, एडिनबर्ग विश्वविद्यालय में एडोआर्डो पोंटी कहते हैं, इस तरह की त्वरित इंजीनियरिंग का मतलब किसी लक्षण का इलाज करना है, न कि बीमारी का इलाज.

शायद, फिर, समस्या यह है कि अकेले एलएलएम के बारे में पूछने के लिए सटीकता बहुत अधिक है। इसके बजाय, उन्हें पूरी कार के बजाय एक बड़े सिस्टम-एक इंजन का हिस्सा होना चाहिए। एक समाधान पुनर्प्राप्ति संवर्धित पीढ़ी (आरएजी) है, जो एआई मॉडल के कार्य को दो भागों में विभाजित करता है: पुनर्प्राप्ति और पीढ़ी। एक बार संकेत प्राप्त होने के बाद, एक रिट्रीवर मॉडल प्रासंगिक प्रासंगिक जानकारी निकालने के लिए समाचार पत्र संग्रह जैसे सूचना के बाहरी स्रोत के आसपास घूमता है। इसे मूल प्रॉम्प्ट के साथ जनरेटर मॉडल में फीड किया जाता है, पूर्व ज्ञान पर भरोसा न करने के निर्देशों के साथ। जनरेटर तब सामान्य एलएलएम की तरह कार्य करता है और उत्तर देता है। यह एलएलएम को अपनी ताकत के अनुसार खेलने की अनुमति देकर मतिभ्रम को कम करता है – शोध के बजाय सारांश और व्याख्या। कैलकुलेटर से लेकर खोज इंजन तक अन्य बाहरी उपकरणों को भी इस तरह से एलएलएम में शामिल किया जा सकता है, जिससे यह प्रभावी रूप से उन कौशलों को बढ़ाने के लिए एक समर्थन प्रणाली का निर्माण कर सकता है जिनकी इसमें कमी है।

हालाँकि, सर्वोत्तम एल्गोरिथम और वास्तुशिल्प एंटीसाइकोटिक्स उपलब्ध होने के बावजूद, एलएलएम अभी भी मतिभ्रम करते हैं। एक अमेरिकी सॉफ्टवेयर कंपनी वेक्टारा द्वारा संचालित एक लीडरबोर्ड ट्रैक करता है कि ऐसी त्रुटियाँ कितनी बार उत्पन्न होती हैं। इसके डेटा से पता चलता है कि GPT-4 अभी भी अपने सारांश के 3% में मतिभ्रम करता है, क्लाउड 2 8.5% में और जेमिनी प्रो 4.8% में। इसने प्रोग्रामरों को मतिभ्रम को रोकने के बजाय उसका पता लगाने का प्रयास करने के लिए प्रेरित किया है। एक सुराग कि मतिभ्रम चल रहा है, एक एलएलएम शब्दों को कैसे चुनता है, इसमें निहित है। यदि शब्दों का संभाव्यता वितरण सपाट है, यानी कई शब्दों के चुने जाने की समान संभावना है, तो इसका मतलब है कि कम निश्चितता है कि किसकी सबसे अधिक संभावना है। यह एक ऐसा सुराग है जिसके बारे में वह अनुमान लगा सकता है, बजाय इसके कि वह उस जानकारी का उपयोग करे जिसके साथ उसे प्रेरित किया गया है और इसलिए वह सच होना “जानता” है।

मतिभ्रम का पता लगाने का दूसरा तरीका दूसरे एलएलएम को पहले तथ्य की जांच करने के लिए प्रशिक्षित करना है। तथ्य-जांचकर्ता को एलएलएम की प्रतिक्रिया के साथ “जमीनी सच्चाई” दी जा सकती है, और पूछा जा सकता है कि वे सहमत हैं या नहीं। वैकल्पिक रूप से, तथ्य-जांचकर्ता को एक ही प्रश्न के एलएलएम के उत्तर के कई संस्करण दिए जा सकते हैं, और पूछा जा सकता है कि क्या वे सहमत हैं सभी सुसंगत हैं। यदि नहीं, तो यह मतिभ्रम होने की अधिक संभावना है। एक चिप निर्माता, NVIDIA ने रेलिंग बनाने के लिए एक ओपन-सोर्स ढांचा विकसित किया है जो इसे और अधिक विश्वसनीय बनाने के लिए एलएलएम के आसपास बैठता है। इनमें से एक का उद्देश्य मतिभ्रम को रोकना है जरूरत पड़ने पर इस तथ्य-जाँच को तैनात करना।

हालाँकि इस तरह के तरीकों से मतिभ्रम की दर कम हो सकती है, माइक्रोसॉफ्ट में एआई फ्रंटियर्स लैब के प्रमुख एसे कमर कहते हैं, “यह स्पष्ट नहीं है कि इनमें से कोई भी तकनीक मतिभ्रम से पूरी तरह छुटकारा दिला पाएगी या नहीं।” कई मामलों में, यह इसी के समान होगा आत्म-तोड़फोड़। यदि एलएलएम को एक काल्पनिक उपन्यास के लिए विचार उत्पन्न करने के लिए कहा जाता है, उदाहरण के लिए, तो इसका आउटपुट निराशाजनक होगा यदि यह दुनिया तक ही सीमित है। नतीजतन, डॉ. कमर कहते हैं, उनके शोध का उद्देश्य सभी मतिभ्रमों से छुटकारा पाना नहीं है , बल्कि मॉडल को मतिभ्रम से रोकने के लिए जब यह अनुपयोगी होगा।

सुरक्षित और गर्म

मतिभ्रम की समस्या एआई के क्षेत्र में बड़ी “संरेखण” समस्या का एक पहलू है: आप एआई सिस्टम को विश्वसनीय रूप से वही करने के लिए कैसे प्राप्त करते हैं जो उनके मानव उपयोगकर्ता चाहते हैं और कुछ नहीं? कई शोधकर्ताओं का मानना ​​​​है कि इसका उत्तर बड़े एलएलएम को और अधिक प्रशिक्षित करने में मिलेगा और बेहतर डेटा। दूसरों का मानना ​​है कि एलएलएम, जेनरेटिव और संभाव्य मॉडल के रूप में, कभी भी अवांछित मतिभ्रम से पूरी तरह छुटकारा नहीं पा सकेंगे।

या, वास्तविक समस्या मॉडलों के साथ नहीं बल्कि इसके मानव उपयोगकर्ताओं के साथ हो सकती है। भाषा का निर्माण करना एक विशिष्ट मानवीय क्षमता हुआ करती थी। एलएलएम के ठोस पाठ्य आउटपुट से उन्हें मानवरूपी बनाना बहुत आसान हो जाता है, यह मान लेना कि एलएलएम भी इंसानों की तरह काम करते हैं, तर्क करते हैं और समझते हैं। अभी भी इस बात का कोई निर्णायक सबूत नहीं है कि यह मामला है। एलएलएम दुनिया के आत्मनिर्भर मॉडल नहीं सीखते हैं। और यहां तक ​​कि जैसे-जैसे मॉडल में सुधार होता है और आउटपुट इंसानों के उत्पादन और अपेक्षा के अनुरूप हो जाते हैं, यह स्पष्ट नहीं है कि अंदर का हिस्सा और अधिक मानवीय हो जाएगा। इन मॉडलों की किसी भी सफल वास्तविक दुनिया की तैनाती के लिए संभवतः मनुष्यों को एआई मॉडल का उपयोग करने और देखने के लिए प्रशिक्षण की आवश्यकता होगी, जितना कि स्वयं मॉडलों को प्रशिक्षित करने की आवश्यकता होगी।

दुनिया के बारे में उत्सुक? हमारे दिमाग का विस्तार करने वाले विज्ञान कवरेज का आनंद लेने के लिए, साइन अप करें बस विज्ञानहमारा साप्ताहिक केवल-ग्राहक समाचार पत्र।

© 2023, द इकोनॉमिस्ट न्यूजपेपर लिमिटेड। सर्वाधिकार सुरक्षित। द इकोनॉमिस्ट से, लाइसेंस के तहत प्रकाशित। मूल सामग्री www.economist.com पर पाई जा सकती है

(टैग्सटूट्रांसलेट)कृत्रिम बुद्धिमत्ता(टी)एआई मतिभ्रम(टी)एआई चैटबॉट्स(टी)चैटजीपीटी(टी)गूगल जेमिनी(टी)ओपनाई(टी)एलएलएम(टी)जेनरेटिव एआई

[ad_2]

Source link

You may also like

Leave a Comment