-
サマリー
あらすじ・解説
एआई चैटबॉट्स झूठी यादें उत्पन्न कर सकते हैं। यह चौंकाने वाला खुलासा "द प्रॉम्प्ट" के इस एपिसोड में जिम कार्टर द्वारा किया गया है।जिम एमआईटी और यूनिवर्सिटी ऑफ कैलिफोर्निया, इरविन के एक क्रांतिकारी अध्ययन को साझा करते हैं, जिसमें पाया गया कि एआई-संचालित चैटबॉट्स उपयोगकर्ताओं में झूठी यादें उत्पन्न कर सकते हैं। कल्पना कीजिए कि आप किसी अपराध के गवाह हैं और फिर एक चैटबॉट द्वारा आपको ऐसे चीजें याद करने के लिए गुमराह किया जाता है जो कभी हुई ही नहीं। डरावना है, है ना?अध्ययन में 200 प्रतिभागियों को एक साइलेंट सीसीटीवी वीडियो देखने को दिया गया जिसमें एक सशस्त्र डकैती दिखाई गई थी। उन्हें चार समूहों में विभाजित किया गया: एक नियंत्रण समूह, एक प्रश्नावली के साथ एक समूह जिसमें भ्रामक प्रश्न थे, एक पूर्व-लिखित चैटबॉट समूह, और एक जनरेटिव चैटबॉट समूह जो एक बड़े भाषा मॉडल का उपयोग कर रहा था।परिणाम? जनरेटिव चैटबॉट ने नियंत्रण समूह की तुलना में लगभग तीन गुना अधिक झूठी यादें उत्पन्न कीं। और भी चौंकाने वाला यह है कि जनरेटिव चैटबॉट के उपयोगकर्ताओं के 36% उत्तर भ्रामक थे, और ये झूठी यादें कम से कम एक सप्ताह तक बनी रहीं!जिम यह पता लगाते हैं कि कुछ लोग इन एआई-प्रेरित झूठी यादों के लिए अधिक संवेदनशील क्यों होते हैं। पता चला कि जो लोग एआई से तो परिचित हैं लेकिन चैटबॉट्स से नहीं, वे अधिक संभावना से गुमराह होते हैं। इसके अलावा, जिन लोगों को अपराध जांच में गहरी दिलचस्पी है वे अधिक संवेदनशील होते हैं, शायद इसलिए कि वे गलत जानकारी को अधिक मनोयोग से संसाधित और ग्रहण करते हैं।तो, चैटबॉट्स "मतिभ्रम" या झूठी जानकारी क्यों उत्पन्न करते हैं? जिम प्रशिक्षण डेटा में सीमाओं और पूर्वाग्रहों, ओवरफिटिंग, और बड़े भाषा मॉडलों की प्रकृति की व्याख्या करते हैं, जो तथ्यात्मक सटीकता के बजाय संभावित उत्तरों को प्राथमिकता देते हैं। ये मतिभ्रम गलत जानकारी फैला सकते हैं, एआई पर विश्वास को कमजोर कर सकते हैं, और यहां तक कि कानूनी समस्याएं पैदा कर सकते हैं।पर चिंता न करें, जिम हमें असहाय नहीं छोड़ते। वे इन जोखिमों को कम करने के लिए क्रियान्वयन योग्य कदम साझा करते हैं, जैसे प्रशिक्षण डेटा की गुणवत्ता में सुधार, भाषा मॉडलों को तथ्य-जांच प्रणाली के साथ ...