دانش و فناوریهوش مصنوعی

توهم‌ هوش مصنوعی چیست و آیا همیشه بد است؟

توهم هوش مصنوعی (AI Hallucination) یکی از نگرانی‌های بزرگ در بحث‌های مربوط به نقش این فناوری در حوزه سلامت محسوب می‌شود. اما در عمل این مفهوم چه معنایی دارد؟ این موضوع در جریان یک پنل تخصصی که در کنفرانس MedCity INVEST Digital Health در شهر دالاس برگزار شد، مورد بررسی قرار گرفت.

به گفته سومی ساها معاون ارشد امور دولتی در شرکت .Premier Inc و مجری این نشست، توهمات هوش مصنوعی زمانی رخ می‌دهند که سیستم از قوه تخیل خود استفاده می‌کند و این مسئله در برخی مواقع می‌تواند برای بیماران زیان‌آور باشد، زیرا ممکن است اطلاعات نادرست ارائه شود.

یکی از اعضای پنل، جنیفر گلدسک بنیان‌گذار و مدیرعامل Digital Medicine Society، توهمات هوش مصنوعی را معادل فناورانه مزخرف توصیف کرد. در همین حال، رندی سیگل از شرکت Manatt, Phelps & Phillips، آن را زمانی دانست که هوش مصنوعی چیزی را می‌سازد اما به گونه‌ای بیان می‌کند که واقعی به نظر برسد و باعث شود فرد تردیدی نسبت به آن نداشته باشد. همچنین جیجی یوان مدیر داده و هوش مصنوعی در Cohere Health، توهمات را شرایطی تعریف کرد که در آن هوش مصنوعی فاقد اتکا به واقعیت و دور از تواضع است.

اما آیا توهمات همیشه منفی تلقی می‌شوند؟ ساها این پرسش را مطرح کرد و از اعضای پنل خواست نظر بدهند که آیا چنین پدیده‌ای می‌تواند به شناسایی شکاف‌های بالقوه در داده‌ها یا کمبودهای موجود در پژوهش‌ها کمک کند و نشان دهد که نیاز به بررسی‌های بیشتر وجود دارد.

یوان در پاسخ توضیح داد که توهمات زمانی خطرناک هستند که کاربر از وجود آنها آگاه نباشد. با این حال او گفت: «من شخصاً مشکلی ندارم که با چت‌بات هوش مصنوعی خود گفت‌وگویی طوفان فکری داشته باشم، مشروط بر این‌که مشخص کند تا چه اندازه نسبت به اظهاراتش اطمینان دارد.»

توهم‌ هوش مصنوعی چیست و آیا همیشه بد است؟ - نیعان مگ

گلدسک توهمات هوش مصنوعی را با داده‌های کارآزمایی‌ بالینی مقایسه کرد و استدلال نمود که حتی داده‌های غایب می‌توانند معنای خاصی داشته باشند. برای نمونه، در آزمایش‌های بالینی حوزه سلامت روان، نبود داده‌ها ممکن است نشان‌دهنده این باشد که فرد در وضعیت خوبی قرار دارد، زیرا به جای ثبت روزانه علائم خود، زندگی عادی‌اش را می‌کند. او یادآور شد که صنعت سلامت معمولاً هنگام نبود داده، از ادبیات سرزنش‌گر استفاده می‌کند و آن را به عدم پایبندی بیماران نسبت می‌دهد، در حالی که می‌بایست درباره معنای واقعی این کمبود داده بازاندیشی شود.

او در ادامه تأکید کرد که صنعت سلامت معمولاً ارزش‌گذاری‌های انسانی را به فناوری تحمیل می‌کند، در حالی که فناوری ذاتاً فاقد نظام ارزشی است. بنابراین در صورت مواجهه با توهمات در هوش مصنوعی، این وظیفه انسان‌هاست که نسبت به چرایی بروز آن کنجکاو باشند و با تفکر نقادانه به تحلیل آن بپردازند. گلدسک خاطرنشان کرد: «اگر ما نتوانیم این ابزارها را در خدمت خود به کار بگیریم، برای من روشن نیست که چگونه می‌توانیم در آینده یک نظام سلامت پایدار داشته باشیم. پس مسئولیت داریم که کنجکاوی به خرج دهیم و نسبت به چنین مواردی هوشیار باشیم. همچنین در نظر بگیریم که چگونه می‌توان آنها را با دیگر چارچوب‌های حقوقی مقایسه کرد و دست‌کم از آن نقطه به عنوان نقطه شروع استفاده نمود.»

از سوی دیگر، سیگل بر اهمیت گنجاندن آموزش هوش مصنوعی در برنامه‌های درسی دانشجویان پزشکی و پرستاری تأکید کرد، به گونه‌ای که نه تنها فهم آن را بیاموزند بلکه توانایی طرح پرسش درباره عملکردش را نیز پیدا کنند. او گفت: «قطعاً کافی نیست که صرفاً در یک دوره سالانه که سه ساعت وقت شما را می‌گیرد، چند کلیک بزنید و به ظاهر آموزش کار با هوش مصنوعی ببینید. به باور من این موضوع باید تکرارشونده و پیوسته باشد، نه این‌که تنها یک بار تدریس شود و بعد هم در قالب یک دوره بازآموزی سریع در میان دیگر آموزش‌های سالانه قرار گیرد.»

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا