توهم هوش مصنوعی چیست و آیا همیشه بد است؟

توهم هوش مصنوعی (AI Hallucination) یکی از نگرانیهای بزرگ در بحثهای مربوط به نقش این فناوری در حوزه سلامت محسوب میشود. اما در عمل این مفهوم چه معنایی دارد؟ این موضوع در جریان یک پنل تخصصی که در کنفرانس MedCity INVEST Digital Health در شهر دالاس برگزار شد، مورد بررسی قرار گرفت.
به گفته سومی ساها معاون ارشد امور دولتی در شرکت .Premier Inc و مجری این نشست، توهمات هوش مصنوعی زمانی رخ میدهند که سیستم از قوه تخیل خود استفاده میکند و این مسئله در برخی مواقع میتواند برای بیماران زیانآور باشد، زیرا ممکن است اطلاعات نادرست ارائه شود.
یکی از اعضای پنل، جنیفر گلدسک بنیانگذار و مدیرعامل Digital Medicine Society، توهمات هوش مصنوعی را معادل فناورانه مزخرف توصیف کرد. در همین حال، رندی سیگل از شرکت Manatt, Phelps & Phillips، آن را زمانی دانست که هوش مصنوعی چیزی را میسازد اما به گونهای بیان میکند که واقعی به نظر برسد و باعث شود فرد تردیدی نسبت به آن نداشته باشد. همچنین جیجی یوان مدیر داده و هوش مصنوعی در Cohere Health، توهمات را شرایطی تعریف کرد که در آن هوش مصنوعی فاقد اتکا به واقعیت و دور از تواضع است.
اما آیا توهمات همیشه منفی تلقی میشوند؟ ساها این پرسش را مطرح کرد و از اعضای پنل خواست نظر بدهند که آیا چنین پدیدهای میتواند به شناسایی شکافهای بالقوه در دادهها یا کمبودهای موجود در پژوهشها کمک کند و نشان دهد که نیاز به بررسیهای بیشتر وجود دارد.
یوان در پاسخ توضیح داد که توهمات زمانی خطرناک هستند که کاربر از وجود آنها آگاه نباشد. با این حال او گفت: «من شخصاً مشکلی ندارم که با چتبات هوش مصنوعی خود گفتوگویی طوفان فکری داشته باشم، مشروط بر اینکه مشخص کند تا چه اندازه نسبت به اظهاراتش اطمینان دارد.»

گلدسک توهمات هوش مصنوعی را با دادههای کارآزمایی بالینی مقایسه کرد و استدلال نمود که حتی دادههای غایب میتوانند معنای خاصی داشته باشند. برای نمونه، در آزمایشهای بالینی حوزه سلامت روان، نبود دادهها ممکن است نشاندهنده این باشد که فرد در وضعیت خوبی قرار دارد، زیرا به جای ثبت روزانه علائم خود، زندگی عادیاش را میکند. او یادآور شد که صنعت سلامت معمولاً هنگام نبود داده، از ادبیات سرزنشگر استفاده میکند و آن را به عدم پایبندی بیماران نسبت میدهد، در حالی که میبایست درباره معنای واقعی این کمبود داده بازاندیشی شود.
او در ادامه تأکید کرد که صنعت سلامت معمولاً ارزشگذاریهای انسانی را به فناوری تحمیل میکند، در حالی که فناوری ذاتاً فاقد نظام ارزشی است. بنابراین در صورت مواجهه با توهمات در هوش مصنوعی، این وظیفه انسانهاست که نسبت به چرایی بروز آن کنجکاو باشند و با تفکر نقادانه به تحلیل آن بپردازند. گلدسک خاطرنشان کرد: «اگر ما نتوانیم این ابزارها را در خدمت خود به کار بگیریم، برای من روشن نیست که چگونه میتوانیم در آینده یک نظام سلامت پایدار داشته باشیم. پس مسئولیت داریم که کنجکاوی به خرج دهیم و نسبت به چنین مواردی هوشیار باشیم. همچنین در نظر بگیریم که چگونه میتوان آنها را با دیگر چارچوبهای حقوقی مقایسه کرد و دستکم از آن نقطه به عنوان نقطه شروع استفاده نمود.»
از سوی دیگر، سیگل بر اهمیت گنجاندن آموزش هوش مصنوعی در برنامههای درسی دانشجویان پزشکی و پرستاری تأکید کرد، به گونهای که نه تنها فهم آن را بیاموزند بلکه توانایی طرح پرسش درباره عملکردش را نیز پیدا کنند. او گفت: «قطعاً کافی نیست که صرفاً در یک دوره سالانه که سه ساعت وقت شما را میگیرد، چند کلیک بزنید و به ظاهر آموزش کار با هوش مصنوعی ببینید. به باور من این موضوع باید تکرارشونده و پیوسته باشد، نه اینکه تنها یک بار تدریس شود و بعد هم در قالب یک دوره بازآموزی سریع در میان دیگر آموزشهای سالانه قرار گیرد.»





