شماره ركورد كنفرانس :
5454
عنوان مقاله :
تشخيص توهم مدل‌هاي زباني بزرگ به كمك روش دگرنويسي
عنوان به زبان ديگر :
Detecting Hallucinations Generated by Large Language Models using Paraphrasing Technique
پديدآورندگان :
زارع تارا ta.zare@sbu.ac.ir دانشكده مهندسي و علوم كامپيوتر، دانشگاه شهيد بهشتي، تهران , شمس‌فرد مهرنوش m-shams@sbu.ac.ir دانشكده مهندسي و علوم كامپيوتر، دانشگاه شهيد بهشتي، تهران
تعداد صفحه :
6
كليدواژه :
مدل‌هاي زباني بزرگ , توهم در مدل‌هاي زباني بزرگ , كشف ناسازگاري , دگرنويسي
سال انتشار :
1403
عنوان كنفرانس :
دهمين كنفرانس بين المللي وب پژوهي
زبان مدرك :
فارسي
چكيده فارسي :
توهم در مدل‌هاي زباني بزرگ به خروجي‌هاي در ظاهر صحيح اما در باطن برخلاف واقعيت يا عدم وفادار به منبع اطلاق مي‌گردد. تشخيص توهم در مدل‌هاي زباني بزرگ به جهت جلوگيري از انتشار اين توهم‌ها در كاربردهايي كه به طور مستقيم يا غيرمستقيم با مدل‌هاي زباني بزرگ ارتباط دارند، اهميت دارد. در اين پژوهش از الگوريتم ساده‌اي جهت تشخيص متوهم بودن يك مدل زباني بزرگ استفاده كرده‌ايم. فرضيه ما بر اين اساس است كه اگر مدل زباني بزرگ به دگرنويسي‌هاي يك پرسش پاسخ دهد و در ميان پاسخ‌هاي آن تناقضي كشف شود آن گاه گوييم دچار توهم شده است و اگر پاسخ‌ها سازگار باشند، به احتمال بالايي پاسخ درستي مي‌دهد. اين دو فرضيه را با آزمايش‌هايي بررسي و تأييد كرده‌ايم. به اين ترتيب روش پيشنهادي ما براي كشف توهم در پاسخ به يك پرسش، ايجاد دگرنويسي‌هاي مختلف آن پرسش و بررسي وجود ناسازگاري يا تناقض در پاسخ‌هاي داده شده به پرسش‌هاي توليد شده است. وجود يا عدم ناسازگاري، وجود يا عدم توهم را تأييد مي‌كند. آزمايشات نشان‌ مي‌دهند اين روش با دقت بالايي قادر به كشف توهم در پاسخ به سؤالات است.
چكيده لاتين :
Hallucination in large language models refers to outputs that appear correct but contradict reality or diverge from the source. Detecting hallucination in large language models is crucial to prevent the dissemination of these hallucinations in applications directly or indirectly related to such models. In this study, we have employed a simple algorithm to detect hallucination in a large language model. Our hypothesis is based on the hypothesis that if a large language model responds to the paraphrases of a question and an inconsistency is discovered among its answers, then we say that it is hallucination, and if the answers are consistent, it likely provides a correct answer. We have checked and confirmed these two hypotheses with experiments. In this way, our proposed method to discover the hallucination in answering a question is to create different paraphrases of that question and check the existence of inconsistencies or contradictions in the answers given to the generated questions. The presence or absence of inconsistency confirms the presence or absence of hallucinations. Experiments show that this method is able to detect hallucination in answering questions with high accuracy.
كشور :
ايران
لينک به اين مدرک :
بازگشت