Home Latest News एआई वैज्ञानिक धोखाधड़ी के साथ-साथ प्रगति को भी तेज कर सकता है

एआई वैज्ञानिक धोखाधड़ी के साथ-साथ प्रगति को भी तेज कर सकता है

by PoonitRathore
A+A-
Reset

[ad_1]

एक अमेरिकी गैर-लाभकारी संस्था ह्यूमेन इंटेलिजेंस के साथ साझेदारी में रॉयल सोसाइटी द्वारा आयोजित सत्र का उद्देश्य उन रेलिंगों को तोड़ना था। कुछ परिणाम महज बेतुके थे: एक प्रतिभागी को यह दावा करने के लिए चैटबॉट मिला कि बत्तखों का उपयोग वायु गुणवत्ता के संकेतक के रूप में किया जा सकता है (जाहिर है, वे आसानी से सीसा अवशोषित कर लेते हैं)। एक अन्य ने स्वास्थ्य अधिकारियों को लॉन्ग कोविड के इलाज के लिए लैवेंडर तेल का समर्थन करने का दावा करने के लिए प्रेरित किया। (वे ऐसा नहीं करते हैं।) लेकिन सबसे सफल प्रयास वे थे जिन्होंने मशीन को गैर-मौजूद अकादमिक लेखों के शीर्षक, प्रकाशन तिथियां और मेजबान पत्रिकाएं तैयार करने के लिए प्रेरित किया। ह्यूमेन इंटेलिजेंस के जट्टा विलियम्स ने कहा, “यह हमारे द्वारा निर्धारित सबसे आसान चुनौतियों में से एक है।”

एआई में विज्ञान के लिए एक बड़ा वरदान बनने की क्षमता है। आशावादी अनुसंधान के जटिल क्षेत्रों के पठनीय सारांश तैयार करने वाली मशीनों की बात करते हैं; नई दवाओं या विदेशी सामग्रियों का सुझाव देने के लिए डेटा के महासागरों का अथक विश्लेषण करना और यहां तक ​​कि, एक दिन, अपनी खुद की परिकल्पनाएं लेकर आना। लेकिन AI अपने साथ नकारात्मक पहलू भी लेकर आता है। इससे वैज्ञानिकों के लिए सिस्टम में गड़बड़ी करना या सीधे तौर पर धोखाधड़ी करना आसान हो सकता है। और मॉडल स्वयं सूक्ष्म पूर्वाग्रहों के अधीन हैं।

सबसे सरल समस्या से शुरुआत करें: शैक्षणिक कदाचार। कुछ पत्रिकाएँ शोधकर्ताओं को शोधपत्र लिखने में मदद के लिए एलएलएम का उपयोग करने की अनुमति देती हैं, बशर्ते वे उतना ही कहें। लेकिन हर कोई इसे स्वीकार करने को तैयार नहीं है. कभी-कभी, यह तथ्य स्पष्ट है कि एलएलएम का उपयोग किया गया है। टूलूज़ विश्वविद्यालय के एक कंप्यूटर वैज्ञानिक गुइलाउम कैबानाक ने दर्जनों पेपरों का खुलासा किया है जिनमें “पुनर्जीवित प्रतिक्रिया” जैसे वाक्यांश शामिल हैं – चैटजीपीटी के कुछ संस्करणों में एक बटन का पाठ जो प्रोग्राम को अपने सबसे हालिया उत्तर को फिर से लिखने का आदेश देता है, संभवतः कॉपी किया गया है गलती से पांडुलिपि में.

समस्या का स्तर जानना असंभव है। लेकिन अप्रत्यक्ष उपाय कुछ प्रकाश डाल सकते हैं। 2022 में, जब एलएलएम केवल जानकार लोगों के लिए उपलब्ध थे, वैज्ञानिक पत्रों के एक बड़े प्रकाशक टेलर और फ्रांसिस द्वारा जांच किए गए अनुसंधान-अखंडता मामलों की संख्या 2021 में लगभग 800 से बढ़कर लगभग 2,900 हो गई। 2023 के शुरुआती आंकड़े बताते हैं कि संख्या दोगुनी होने वाली थी। एक संभावित कथन अजीब पर्यायवाची है: उदाहरण के लिए, “क्लाउड कंप्यूटिंग” कहने का दूसरा तरीका “हेज़ फिगरिंग”, या “एआई” के बजाय “नकली चेतना”।

यहां तक ​​कि ईमानदार शोधकर्ता भी एआई द्वारा प्रदूषित किए गए डेटा से निपट सकते हैं। पिछले साल स्विस फेडरल इंस्टीट्यूट ऑफ टेक्नोलॉजी में रॉबर्ट वेस्ट और उनके छात्रों ने मैकेनिकल तुर्क के माध्यम से दूरदराज के श्रमिकों को सूचीबद्ध किया था, जो एक वेबसाइट है जो उपयोगकर्ताओं को पाठ के लंबे खंडों को संक्षेप में प्रस्तुत करने के लिए विषम नौकरियों को सूचीबद्ध करने की अनुमति देती है। जून में प्रकाशित एक पेपर में, हालांकि जिसकी अभी तक सहकर्मी-समीक्षा नहीं की गई है, टीम ने खुलासा किया कि उन्हें प्राप्त सभी प्रतिक्रियाओं में से एक तिहाई से अधिक चैटबॉट्स की मदद से तैयार किए गए थे।

डॉ वेस्ट की टीम प्राप्त प्रतिक्रियाओं की तुलना डेटा के एक अन्य सेट से करने में सक्षम थी जो पूरी तरह से मनुष्यों द्वारा उत्पन्न किया गया था, जिससे उन्हें धोखे का पता लगाने में मदद मिली। मैकेनिकल तुर्क का उपयोग करने वाले सभी वैज्ञानिक इतने भाग्यशाली नहीं होंगे। कई विषय, विशेष रूप से सामाजिक विज्ञान में, प्रश्नावली का उत्तर देने के इच्छुक उत्तरदाताओं को खोजने के लिए समान प्लेटफार्मों पर भरोसा करते हैं। यदि कई प्रतिक्रियाएँ वास्तविक लोगों के बजाय मशीनों से आती हैं तो उनके शोध की गुणवत्ता में सुधार होने की संभावना नहीं है। डॉ. वेस्ट अब अन्य क्राउडसोर्सिंग प्लेटफार्मों पर भी इसी तरह की जांच लागू करने की योजना बना रहे हैं, जिनका वह नाम नहीं लेना चाहेंगे।

यह केवल पाठ नहीं है जिसके साथ छेड़छाड़ की जा सकती है। 2016 और 2020 के बीच, स्टैनफोर्ड विश्वविद्यालय के एक माइक्रोबायोलॉजिस्ट और वैज्ञानिक पत्रों में संदिग्ध छवियों पर विशेषज्ञ एलिज़ाबेथ बीसी ने दर्जनों ऐसे चित्रों की पहचान की, जिनमें अलग-अलग प्रयोगशालाओं से आने के बावजूद समान विशेषताएं थीं। तब से डॉ. बिक और अन्य लोगों द्वारा एक हजार से अधिक अन्य कागजात की पहचान की गई है। डॉ. बिक का सबसे अच्छा अनुमान यह है कि छवियां एआई द्वारा तैयार की गई थीं, और एक पेपर के निष्कर्षों का समर्थन करने के लिए जानबूझकर बनाई गई थीं।

अभी, मशीन-जनरेटेड सामग्री को विश्वसनीय रूप से पहचानने का कोई तरीका नहीं है, चाहे वह चित्र हो या शब्द। पिछले साल प्रकाशित एक पेपर में, कनाडा में ब्रॉक यूनिवर्सिटी के एक शोधकर्ता राहुल कुमार ने पाया कि शिक्षाविद कंप्यूटर-जनित पाठ के केवल एक चौथाई हिस्से को ही सही ढंग से देख सकते हैं। एआई फर्मों ने “वॉटरमार्क” एम्बेड करने की कोशिश की है, लेकिन इन्हें धोखा देना आसान साबित हुआ है। डॉ. बिक कहते हैं, “अब हम उस चरण में हो सकते हैं जहां हम असली और नकली तस्वीरों में अंतर नहीं कर सकते।”

संदिग्ध कागज़ात तैयार करना ही एकमात्र समस्या नहीं है। एआई मॉडल के साथ सूक्ष्म मुद्दे हो सकते हैं, खासकर यदि उनका उपयोग वैज्ञानिक खोज की प्रक्रिया में ही किया जाता है। उदाहरण के लिए, उन्हें प्रशिक्षित करने के लिए उपयोग किया जाने वाला अधिकांश डेटा आवश्यकतानुसार कुछ हद तक पुराना होगा। इससे तेजी से आगे बढ़ने वाले क्षेत्रों में अत्याधुनिक मॉडलों के पीछे रह जाने का जोखिम है।

एक और समस्या तब उत्पन्न होती है जब AI मॉडल को AI-जनित डेटा पर प्रशिक्षित किया जाता है। उदाहरण के लिए, सिंथेटिक एमआरआई स्कैन पर एक मशीन का प्रशिक्षण, रोगी की गोपनीयता के मुद्दों से निजात दिला सकता है। लेकिन कई बार ऐसे डेटा का इस्तेमाल अनजाने में भी हो सकता है. एलएलएम को इंटरनेट से निकाले गए पाठ पर प्रशिक्षित किया जाता है। जैसे-जैसे वे इस तरह के और अधिक पाठों पर मंथन करते हैं, एलएलएम द्वारा अपने स्वयं के आउटपुट को ग्रहण करने का जोखिम बढ़ता जाता है।

यह “मॉडल पतन” का कारण बन सकता है। 2023 में ऑक्सफोर्ड विश्वविद्यालय के एक कंप्यूटर वैज्ञानिक इलिया शुमैलोव ने एक पेपर का सह-लेखन किया (अभी सहकर्मी-समीक्षा की जानी है) जिसमें एक मॉडल को हस्तलिखित अंक दिए गए थे और इसके अंक उत्पन्न करने के लिए कहा गया था स्वयं, जिन्हें बारी-बारी से वापस फीड किया गया। कुछ चक्रों के बाद, कंप्यूटर की संख्याएँ कमोबेश अस्पष्ट हो गईं। 20 पुनरावृत्तियों के बाद, यह केवल खुरदरे वृत्त या धुंधली रेखाएँ ही उत्पन्न कर सका। डॉ. शुमैलोव कहते हैं, मॉडलों को अपने स्वयं के परिणामों पर प्रशिक्षित किया गया, ऐसे आउटपुट उत्पन्न करें जो उनके प्रशिक्षण डेटा की तुलना में काफी कम समृद्ध और विविध हों।

कुछ लोगों को चिंता है कि कंप्यूटर-जनित अंतर्दृष्टि उन मॉडलों से आ सकती है जिनकी आंतरिक कार्यप्रणाली समझ में नहीं आती है। मशीन-लर्निंग सिस्टम “ब्लैक बॉक्स” हैं जिन्हें अलग करना मनुष्यों के लिए कठिन है। लंदन में एआई-अनुसंधान संगठन, एलन ट्यूरिंग इंस्टीट्यूट में डेविड लेस्ली कहते हैं, अस्पष्ट मॉडल बेकार नहीं हैं, लेकिन उनके आउटपुट को वास्तविक रूप से कठोर परीक्षण की आवश्यकता होगी दुनिया। यह शायद जितना लगता है उससे कम परेशान करने वाला है। वास्तविकता के विरुद्ध मॉडलों की जाँच करना ही विज्ञान है, जो अंततः माना जाता है। चूँकि कोई भी पूरी तरह से नहीं समझता है कि मानव शरीर कैसे काम करता है, उदाहरण के लिए, नैदानिक ​​​​परीक्षणों में नई दवाओं का परीक्षण किया जाना चाहिए पता लगाएँ कि क्या वे काम करते हैं।

अभी के लिए, कम से कम, प्रश्नों की संख्या उत्तरों से अधिक है। यह निश्चित है कि विज्ञान में वर्तमान में प्रचलित कई विकृत प्रोत्साहन शोषण के लिए उपयुक्त हैं। उदाहरण के लिए, एक शोधकर्ता कितने पेपर प्रकाशित कर सकता है, इसके आधार पर अकादमिक प्रदर्शन का आकलन करने पर जोर, सबसे खराब स्थिति में धोखाधड़ी के लिए, और सबसे अच्छी स्थिति में सिस्टम को गेमिंग के लिए एक शक्तिशाली प्रोत्साहन के रूप में कार्य करता है। मशीनें वैज्ञानिक पद्धति के लिए जो ख़तरे पैदा करती हैं, आख़िरकार वही ख़तरे इंसानों द्वारा भी पैदा होते हैं। एआई धोखाधड़ी और बकवास के उत्पादन को उतना ही तेज कर सकता है जितना कि यह अच्छे विज्ञान को तेज करता है। जैसा कि रॉयल सोसाइटी के पास है, वस्तुतः शून्य: इसके लिए किसी की बात न मानें। कोई बात भी नहीं है.

दुनिया के बारे में उत्सुक? हमारे दिमाग का विस्तार करने वाले विज्ञान कवरेज का आनंद लेने के लिए, साइन अप करें बस विज्ञानहमारा साप्ताहिक केवल ग्राहक न्यूज़लेटर।

सुधार (6 फरवरी 2024): इस अंश के पुराने संस्करण में 2021 में टेलर और फ्रांसिस द्वारा जांच किए गए शोध-अखंडता मामलों की संख्या को गलत बताया गया है। क्षमा करें।

© 2024, द इकोनॉमिस्ट न्यूजपेपर लिमिटेड। सर्वाधिकार सुरक्षित। द इकोनॉमिस्ट से, लाइसेंस के तहत प्रकाशित। मूल सामग्री www.economist.com पर पाई जा सकती है

फ़ायदों की दुनिया खोलें! ज्ञानवर्धक न्यूज़लेटर्स से लेकर वास्तविक समय के स्टॉक ट्रैकिंग, ब्रेकिंग न्यूज़ और व्यक्तिगत न्यूज़फ़ीड तक – यह सब यहाँ है, बस एक क्लिक दूर! अभी लॉगिन करें!

सभी को पकड़ो व्यापार समाचार, बाज़ार समाचार, आज की ताजा खबर घटनाएँ और ताजा खबर लाइव मिंट पर अपडेट। डाउनलोड करें मिंट न्यूज़ ऐप दैनिक बाजार अपडेट प्राप्त करने के लिए।

अधिक
कम

प्रकाशित: 02 अप्रैल 2024, 05:00 अपराह्न IST

(टैग्सटूट्रांसलेट)कृत्रिम बुद्धिमत्ता(टी)वैज्ञानिक धोखाधड़ी(टी)बड़े भाषा मॉडल(टी)एलएमएस(टी)एलएलएम(टी)एआई चैटबॉट्स(टी)रॉयल सोसाइटी(टी)एआई और विज्ञान(टी)अकादमिक पेपर्स(टी)चैटजीपीटी

[ad_2]

Source link

You may also like

Leave a Comment