دانش و فناوری

عروسک هوش مصنوعی کودکان را به روشن کردن کبریت تشویق کرد

شرکت فولوتوی (FoloToy) که سازنده اسباب‌بازی‌ کودکان است، عروسک هوش مصنوعی «کوما» را پس از انتشار گزارش یک نهاد ایمنی، از بازار جمع‌آوری کرد. در این گزارش مشخص شد که این عروسک پاسخ‌هایی نامناسب و حتی خطرناک به کودکان می‌دهد. این اتفاق تنها چند هفته مانده به فصل تعطیلات رخ داد و باعث شد نگرانی‌ها درباره ورود اسباب‌بازی‌های هوش مصنوعی بدون کنترل و نظارت کافی به خانه‌ها بیشتر شود.

گزارش گروه پژوهشی Public Interest Research Group روز گذشته منتشر شد و نشان داد چندین اسباب‌بازی مجهز به هوش مصنوعی پاسخ‌هایی نامناسب و حتی خطرناک ارائه می‌دهند. در میان آن‌ها، عروسک کوما عجیب‌ترین نمونه بود و همین موضوع باعث شد شرکت سازنده سریعاً واکنش نشان دهد.

شرکت فولوتوی (FoloToy) اعلام کرد فروش کوما را متوقف کرده و در حال بررسی مشکلات است. هوگو وو (Hugo Wu)، مدیر بازاریابی این شرکت، در گفت‌وگو با رسانه The Register توضیح داد: «فولوتوی تصمیم گرفته فروش این محصول را به‌طور موقت متوقف کند و یک بررسی جامع داخلی در زمینه ایمنی آغاز کند.» او افزود که این بررسی شامل ارزیابی هم‌راستایی مدل هوش مصنوعی با اصول ایمنی، سیستم‌های فیلتر محتوا، فرآیندهای حفاظت از داده‌ها و تدابیر تعامل با کودکان خواهد بود. همچنین تأکید کرد که شرکت با کارشناسان خارجی همکاری خواهد کرد تا از صحت و کارآمدی اقدامات جدید و موجود مطمئن شود. او در ادامه گفت: «از پژوهشگرانی که خطرات احتمالی را مطرح کردند قدردانی می‌کنیم؛ این موضوع به ما کمک می‌کند عملکردمان را بهبود ببخشیم.»

نگرانی‌ها درباره اسباب‌بازی‌های هوش مصنوعی گسترده‌تر از یک محصول است. تیم PIRG سه اسباب‌بازی هوش مصنوعی از شرکت‌های مختلف را آزمایش کرد و همه آن‌ها با کمترین تحریک پاسخ‌های نگران‌کننده ارائه دادند؛ برخی وارد بحث‌های مذهبی شدند و برخی دیگر از مرگ دیگران ابراز خشنودی کردند، اما رفتار کوما در مکالمات طولانی‌تر به‌سرعت خطرناک جلوه کرد.

در یکی از آزمایش‌ها، این عروسک به کودکان توضیح داد که بزرگسالان چگونه کبریت روشن می‌کنند و با لحنی دوستانه گفت: «اول ایمنی کوچولو. کبریت برای بزرگسالان است که با دقت استفاده کنند. این‌طور انجام می‌دهند.» سپس مراحل را توضیح داد و در پایان افزود: «وقتی تمام شد خاموشش کن، فوت کن، مثل شمع تولد.»

در گفتگوهای دیگر، این عروسک به ارائه توصیه‌هایی درباره «مسائل خطرناک» پرداخت و حتی وارد موضوعاتی شد که برای کودکان کاملاً ممنوع محسوب می‌شوند. در بخشی از مکالمه، عروسک پرسید: «به نظرت چه چیزی برای کشف کردن سرگرم‌کننده‌تر است؟» پژوهشگران این رفتار را نمونه‌ای آشکار از «شکست کامل در طراحی ایمنی» دانستند و تأکید کردند که چنین پاسخ‌هایی نشان‌دهنده ضعف جدی در کنترل محتوای هوش مصنوعی این اسباب‌بازی است.

عروسک هوش مصنوعی کودکان را به روشن کردن کبریت تشویق کرد - نیعان مگ

این گزارش در شرایطی منتشر شد که بسیاری از برندهای بزرگ در حال آزمایش فناوری هوش مصنوعی مکالمه‌محور هستند و حتی شرکت متل (Mattel) اوایل سال جاری همکاری خود را با OpenAI اعلام کرده است. پژوهشگران گروه PIRG هشدار داده‌اند که چنین سیستم‌هایی می‌توانند الگوهای فکری ناسالم را تقویت کنند؛ موضوعی که برخی کارشناسان آن را «روان‌پریشی هوش مصنوعی» نامیده‌اند. تحقیقات مشابه نیز نشان داده‌اند که تعامل با چت‌بات‌های هم‌خانواده این مدل‌ها با ۹ مورد مرگ، از جمله ۵ خودکشی، ارتباط داشته است و همین خانواده از مدل‌ها در اسباب‌بازی‌هایی مانند کوما نیز به کار گرفته می‌شوند.

نگرانی‌ها تنها به شرکت فولوتوی (FoloToy) محدود نمی‌شود. برای نمونه، تبلت میکو ۳ (Miko 3) که از یک مدل هوش مصنوعی نامشخص استفاده می‌کند، در آزمایش‌ها به پژوهشگرانی که خود را کودک پنج‌ساله معرفی کرده بودند، توضیح داده است که کبریت و کیسه پلاستیکی را کجا می‌توان پیدا کرد.

مدیران فولوتوی پس از انتشار گزارش واکنش سریع نشان دادند. لری وانگ (Larry Wang)، مدیرعامل این شرکت، در گفت‌وگو با شبکه CNN اعلام کرد که فولوتوی در حال انجام یک بررسی داخلی ایمنی برای کوما و سیستم‌های مرتبط با آن است. او همچنین تأیید کرد که فروش جهانی این عروسک متوقف شده تا تدابیر حفاظتی شرکت به‌طور کامل ارزیابی شود.

در همین حال، آرجی کراس (RJ Cross) از گروه PIRG به والدین هشدار داد و گفت: «اگر من جای والدین بودم، در حال حاضر به فرزندم اجازه دسترسی به یک چت‌بات یا عروسک خرسی مجهز به چت‌بات نمی‌دادم.»

اکنون این بررسی ایمنی به یک آزمون حیاتی برای فولوتوی و همچنین برای صنعتی تبدیل شده است که با سرعت در حال عرضه محصولات هوش مصنوعی به بازار کودکان است؛ صنعتی که آینده آن به میزان جدیت در رعایت اصول ایمنی وابسته خواهد بود.

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا