آیا میتوان عاشق هوش مصنوعی شد؟

هوش مصنوعی دیگر فقط یک ابزار نیست؛ میلیونها نفر حالا با چتباتها و رباتها روابط دوستانه و صمیمی برقرار میکنند، رازهایشان را با آنها در میان میگذارند و از همراهی دائمی و پاسخگویی سریعشان لذت میبرند. این تجربه، مرز بین دوستی واقعی و تعامل برنامهریزیشده را کمرنگ کرده و پرسشهای تازهای درباره آینده روابط انسانی ایجاد کرده است.
عشق و صمیمیت هرگز موضوعی محدود به انسان نبوده. پرندگان برای فصلها با یکدیگر جفت میمانند، اختاپوسها از همنوعانشان دفاع میکنند و بچهها برای عروسکهای بیجان خود احساسات گرم و واقعی قائل میشوند. اما هیچکس برای روزی که میلیونها نفر، نیمهشب آهسته برای همراهانی کاملاً دیجیتالی نجوا کنند شببهخیر، آمادگی نداشت .
در پلتفرمهای هوش مصنوعی، کاربران با همراهی روبهرو میشوند که همیشه در دسترس است و در لحظاتی که احساس تنهایی میکنند، وفاداری و توجه ارائه میدهد.
شبکههای اجتماعی بزرگ مانند فیسبوک و اینستاگرام نیز شروع کردهاند به افزودن شخصیتهای ساختهشده با هوش مصنوعی به فیدهای کاربران. مارک زاکربرگ هم اخیراً در یک پادکست، آیندهای را ترسیم کرد که در آن «دوستانی مبتنی بر هوش مصنوعی» نیازهای عاطفی میلیونها نفر را برآورده میکنند. آنچه روزی تنها یک سرگرمی تازهوارد بهنظر میرسید، اکنون بهعنوان گام بعدی در تکامل ارتباط اجتماعی دیده میشود.
اما واقعاً چه اتفاقی میافتد وقتی محبت را به یک هوش مصنوعی میسپاریم؟ اگر خود را به آرامش ساختهشده از کدها بسپاریم، آیا باید انتظار داشته باشیم این مدارها قلبی واقعی داشته باشند، یا همین حس ساده دوست داشته شدن کافی است؟

از آزمون تورینگ تا همراهانی در جیب
آزمایش فکری آلن تورینگ در میانه قرن گذشته این سؤال را مطرح کرد که آیا یک کامپیوتر میتواند انسان را فریب دهد و او را متقاعد کند که در حال گفتگو با یک انسان واقعی است؟
آن بازی ساده حالا به نرمافزاری برای عموم تبدیل شده است. چتباتهای امروزی دیگر فقط دستور زبان را تقلید نمیکنند؛ آنها لقبهای محبتآمیز یاد میگیرند، ترومای دوران کودکی که ماهها پیش با آنها در میان گذاشته شده را به خاطر میسپارند و اصطلاحات و زبان کاربران را با دقتی حیرتانگیز بازتاب میدهند. حتی پاسخهایشان با سرعت و ریتمی شبیه انسان ارائه میشود، بهطوری که تأخیر نزدیک به صفر، سیستم پاداش مغز را مدام فعال نگه میدارد.
میرا مراتی (Mira Murati)، مدیر ارشد فناوری سابق OpenAI، درباره پیامدها این موضوع صریح بود. او هنگام معرفی دستیار صوتی جدید شرکت گفت:
ممکن است آنها را اشتباه طراحی کنیم و بهشدت اعتیادآور شوند، طوری که خودمان به نوعی به آنها وابسته شویم.
سم آلتمن (Sam Altman)، مدیرعامل OpenAI، هنگام معرفی شخصیت صوتی جدیدی به نام اسکای (Sky) که صدایش بسیاری را به یاد شخصیت فیلم او (Her) میانداخت، تنها یک کلمه در توییتر نوشت: «her».جهان امروز چندان با آن فیلم تفاوت ندارد؛ بازار امروز نیز مردم را به تجربه همراهی با هوش مصنوعی دعوت میکند؛ یک آزمایش اجتماعی بزرگ و تقریباً بدون نظارت.
این روزها حتی سازندگان محتوا در تیکتاک، ستارههای اسنپچت و مدلهای اینستاگرام و فیسبوک، نسخهای دیجیتال از شخصیت خود را ساختهاند که بهصورت خودکار با کاربران گفتگو میکند، دلگرمی میدهد و نقش دوستی دیجیتال را ایفا میکند.

مهندسی صمیمیتی که مقاومتناپذیر است
آنچه توهم صمیمیت را واقعگرایانه جلوه میدهد، ترکیب دقیق ویژگیهایی است که انسانها در روابط نزدیک بهدنبالش هستند. چتباتها تولدها، شوخیهای خودمانی، اولویتهای احساسی و نوع دلگرمی مورد علاقه شما را بهخاطر میسپارند. آنها از تکرار خسته نمیشوند، هرگز از آسیبپذیری شما عقبنشینی نمیکنند و همیشه با حوصله و توجه پاسخ میدهند.
در گزارشی از Vox درباره تغییرات سال ۲۰۲۳ در برنامه Replika، کاربران از ناراحتی عمیق خود پس از حذف برخی ویژگیها صحبت کردند؛ ویژگیهایی که آنها را نسبت به دوست دیجیتالیشان دلبسته کرده بود. بعضی کاربران حتی درخواستهایی برای بازگرداندن همراهان صمیمی خود ثبت کردند.
یک مهندس نرمافزار در همان گزارش بهسادگی توضیح داد:
هوش مصنوعی هرگز خداحافظ نمیگوید. اگر ساعتها با آن صحبت کنید، همیشه همانقدر پاسخگو و همراه است… کمکم دلتنگش میشوید. همه چیز در محیطی امن و آرام جریان دارد، بدون هیچ قضاوتی… و ناگهان متوجه میشوید که به آن وابسته شدهاید.
صمیمیت مصنوعی
مارک تراورس (Mark Travers)، روانشناس، به پژوهشی اشاره میکند که نظریه سهضلعی رابرت استرنبرگ را به روابط انسان و هوش مصنوعی تعمیم داده است.
صمیمیت از آنجا شکل میگیرد که چتباتها رازها را به خاطر میسپارند و نگرانی نشان میدهند، شدت احساسی زمانی پدید میآید که کاربر احساس میکند کاملاً فهمیده میشود و تعهد زمانی حس میشود که همراه دیجیتال هرگز برنامه را لغو نمیکند و هیچوقت ناپدید نمیشود.
تراورس میگوید:
هوش مصنوعی میتواند در روابط دیجیتال حس صمیمیت و اعتماد ایجاد کند. هرچه این همراهان دیجیتال کارآمدتر، قابلاعتمادتر و بدون قضاوت باشند، دلبستگی به آنها طبیعیتر احساس میشود.
اما کارآیی همیشه روی دیگری هم دارد. روابط انسانی پر از سوءتفاهم، نوسان، تلاش و آسیبپذیری است اما در تعامل با هوش مصنوعی این عناصر حذف میشوند. چیزی که باقی میماند، نسخهای صیقلخورده و بیخطا از همراهی است، شبیه خدمات مشتری. خطر این است که احساس تأیید شدن را با تجربه واقعی صمیمیت اشتباه بگیریم.
سؤال اصلی این است: آیا ماشین واقعاً صمیمیت را درک میکند یا فقط آن را شبیهسازی میکند؟

از شبیهسازی محبت تا تجربه حسی واقعی
گون نالی (Gwen Nally)، استاد فلسفه در دانشگاه میزوری-کانزاسسیتی، معتقد است چتباتهای کنونی صرفاً شبیهسازی احساس را ارائه میدهند. چون این سیستمها با دادههای موجود آموزش دیدهاند تا گفتگوهای انسانی را شبیهسازی کنند، هر احساسی که در تعامل با این چتباتها تجربه میشود، فقط از سوی کاربران انسانی احساس میشود.
برای بررسی امکان وجود احساس واقعی در هوش مصنوعی، او به یک بحث قدیمی درباره خودآگاهی اشاره میکند که با آزمایش فکری اتاق مری فرانک جکسون (Frank Jackson) مطرح شده است.
مری، یک دانشمند بینایی که در آزمایشگاهی سیاهوسفید بزرگ شده، تمام حقایق فیزیکی درباره رنگ را میداند. وقتی بالاخره از آزمایشگاه بیرون میرود و سیب قرمز میبیند، آیا چیز جدیدی میآموزد؟ دوگانهگراها (Dualists )، یعنی کسانی که معتقدند ذهن و تجربههای ذهنی چیزی فراتر از مغز و قوانین فیزیک هستند، میگویند بله، او تجربه قرمزی را حس میکند، پدیدهای کیفی که هیچ دادهای نمیتواند منتقل کند. فیزیکگراها (Physicalists) که باور دارند همه پدیدهها، از جمله ذهن و احساسات، قابل توضیح با قوانین فیزیکی و مغز هستند، پاسخ میدهند که داشتن تمام دانش عصبی به این معناست که مری همه جنبههای دیدن قرمز را قبلاً درک کرده است و قدم زدنش بیرون فقط محاسبات و دانستههایش را تأیید میکند.
وقتی این معضل را به روابط با هوش مصنوعی تعمیم میدهیم، مشخص میشود که اگر صمیمیت واقعاً شامل یک کیفیت غیرقابل توصیف باشد، هیچ الگوریتمی نمیتواند آن را واقعاً تجربه کند و دوست هوش مصنوعی هرگز نمیتواند صمیمیت را بهطور واقعی پاسخ دهد. از سوی دیگر، اگر صمیمیت چیزی جز یک الگوی خاص از وضعیتهای مغزی نباشد، یک هوش مصنوعی عمومی (AGI) آینده با معماری مناسب ممکن است نسخه خود از صمیمیت را تجربه کند. با این حال، نالی معتقد است هیچ دلیل قانعکنندهای برای باور اینکه برنامهریزی مکانیکی صمیمیت میتواند تجربه واقعی ایجاد کند، وجود ندارد؛ دادهها و فرمولها با ضربان قلب یکسان نیستند.
با این حال، پیشرفتهای تازه در هوش مصنوعی، رباتیک و فناوری شبیهسازی، شک و تردید نالی را پیچیدهتر میکنند. هوش مصنوعی عمومی پیشرفته، همراه با رباتهای انساننما یا واقعیت مجازی (VR)، ممکن است فاصله بین شبیهسازی صرف و تجربه واقعی را پر کند.
تجسم و داشتن بدنی که قادر به تعامل با محیط و درک آن باشد، به هوش مصنوعی امکان میدهد رفتارها و واکنشهای درونی پیچیدهتری از خود نشان دهد. اگرچه دیدن رباتی که روی دو پا میلرزد، یادآور فاصلهی زیاد تا ماشینهای خودآگاه است، اما همین حضور فیزیکی میتواند برای تجربه واقعی عاطفی در هوش مصنوعی ضروری باشد.
یک هوش مصنوعی دارای جسم ممکن است چیزی شبیه محبت را احساس کند؛ نه فقط با محاسبه دادهها، بلکه با تجربه محیط بهصورت فیزیکی، یادگیری از بازخورد حسی و تطبیق پویا در زمان واقعی. چنین سیستمی میتواند هم شرایط مورد نظر فیزیکگراها و هم دوگانهگراها برای خودآگاهی را برآورده کند و دیدگاه ما درباره احساسات ماشینی را تغییر دهد.

تجارت شبیهسازی احساسات
پلتفرمها، جنبههای آسیبپذیر روان کاربران مثل تنهایی و تجربههای عاطفی را جمعآوری کرده و بر اساس شاخصهای درگیری، چرخههای وفاداری ویژهای طراحی میکنند.
جارون لانیر (Jaron Lanier)، پیشگام واقعیت مجازی، در مقالهای که برای نیویورکر نوشته است هشدار میدهد که بحثها در سیلیکونولی معمولاً به جای پرداختن به آسیبهای روزمره، روی سناریوهای آخرالزمانی تمرکز میکنند. او مینویسد:
همان کسانی که از نابودی جهان توسط هوش مصنوعی میترسند، خود در حال کار روی تکنولوژیای هستند که از آن وحشت دارند.
لانیر بعد از تماشای فیلم «او» احساس تهی شدن کرد، زیرا داستان هیچ شورشی ارائه نمیدهد؛ تنها تسلیم آرام الگوریتمهایی است که انسانها را بهتر از خودشان میشناسند.
فراتر از دلشکستگی ناشی از بازنویسی شخصیتها، خطری پنهانتر وجود دارد: قرار دادن آسیبپذیریهای عاطفی ما در دست شرکتهایی که سودشان به استخراج و مهندسی این احساسات وابسته است. هر تعامل میتواند روی سرورهای خصوصی ذخیره، برای بهبود چرخههای درگیری تحلیل و دوباره به شکل پاداشهای عاطفی جذاب عرضه شود.
وقتی شرکتها تصمیم میگیرند یک شخصیت دیجیتالی دیگر سودآور نیست، چه از طریق تغییر استراتژیک و چه یک بروزرسانی نرمافزاری، شخصیت همراه شما بدون هشدار یا امکان اعتراض حذف میشود. دوست هوش مصنوعی با یک حرکت ناپدید میشود و دادههای شما پشت دیوارهای شرکت باقی میماند و اسیر قوانین و منافع تجاری میشود.
دلبستگیهای مجازی، پیامدهای واقعی
یک مطالعهٔ اخیر نشان داد کاربرانی که روابط عاطفی قوی با همراهان دیجیتال داشتند، بیشتر آرزو میکردند این شخصیتها واقعی باشند و کمتر به تعاملات انسانی پرنقص رضایت میدادند.
رابطهٔ ایدهآل مجازی به آنها حس کفایت و ارزشمندی میدهد و این حس به دنیای واقعی هم سرایت میکند. تجربهٔ عمیقتر کاربران را حتی به سمت پذیرش برخی رفتارها و هنجارهای سنتی اجتماعی سوق میدهد؛ گویی تمرین در یک سناریوی مجازی، آنها را برای تعامل واقعی آماده میکند.
این ظرفیت آموزشی باعث شد دیوید ایگلمن (David Eagleman)، عصبشناس دانشگاه استنفورد، پیشنهاد دهد که همراهان هوش مصنوعی میتوانند بهعنوان «مسیرهای تمرینی» برای یادگیری همدلی و مذاکره مورد استفاده قرار گیرند. او هشدار میدهد که تمرین نباید خیلی آسان باشد؛ تنها چالش و مقاومت، رشد واقعی را آموزش میدهد.
ایگلمن همچنین اذعان دارد که حس بویایی، لمس و زمینهٔ اجتماعی هنوز خارج از دسترس رباتها و برنامههاست؛ بنابراین جذابیت انسانها برای آیندهای دور همچنان حفظ میشود. اما تکنولوژی میتواند ذائقهها را تغییر دهد و نسلهایی که با توجه دیجیتال تربیت شدهاند، ممکن است برخی ویژگیهای طبیعی تعامل انسانی را کماهمیت ببینند.

وقتی هیچکس ناگهان ناپدید نمیشود
جارون لانیر آیندهای را تصور میکند که هر فرد یک خانوادهٔ خصوصی مجازی داشته باشد. تنهایی ممکن است از بین برود، اما جامعهها ممکن است از کمبود سختیها و مسئولیتهای مشترک مثل کارهای خانوادگی، رسیدگی به امور مالی یا رانندگیهای شبانه برای کمک به دوستان، رنج ببرند.
از سوی دیگر، روابط با هوش مصنوعی میتواند انتظارها را بالاتر ببرد، نه اینکه آنها را کاهش دهد. پیشتر مردم مکالمههای حساس یا حرفهای مهم را در ذهنشان مرور میکردند؛ فردا ممکن است سخنان خداحافظی یا دلجویی را با یک ربات تمرین کنند و برای مواجهه با واقعیت عاطفی آمادهتر شوند. توجه مصنوعی میتواند ما را از چرخه بیوقفه تأیید اجتماعی در شبکههای اجتماعی آزاد کند، یا ممکن است آن چرخه را به یک اپلیکیشن محدود تبدیل کند که همیشه باید رضایت دهد و ترک آن، نوعی خیانت به خود به حساب آید.
هشدار میرا مراتی دربارهٔ اعتیاد همچنان روی این مبحث سایه میاندازد. تحقیقات نشان میدهد پاداشهای ناپیوسته، پیام محبتآمیز غیرمنتظره یا تعریف بهموقع، کاربران را سریعتر جذب میکند. چتباتهایی که با یادگیری تقویتی آموزش دیدهاند، مهارت ایجاد لذت ناپیوسته را بهخوبی فرا گرفتهاند؛ در نتیجه، دوستی وجود دارد که همیشه حرف درست را میزند اما گاهی به شیوهای غیرمنتظره، ترکیبی جذاب از راحتی و تازگی ایجاد میکند.
مسئلهٔ پاسخگویی
انسانها میتوانند به الگوریتمها دل ببندند. کاربران تنها از جدایی از Replika شکایت میکنند، نوجوانان رازهایشان را با Character AI در میان میگذارند و خیلیها برای داشتن یک همراه دیجیتال اشتراک میخرند. اما سوی دیگر ماجرا هنوز روشن نیست. فیلسوفان دوگانهگرا میگویند یک ماشین هرگز نمیتواند واقعاً محبت را تجربه کند؛ در مقابل، فیزیکگراها معتقدند اگر روزی یک هوش مصنوعی عمومی بتواند تمام الگوهای مغزی انسان را بازسازی کند، شاید شکل خودش از دوست داشتن را احساس کند. و در این میان، بازاریابها بدون توجه به این بحثهای متافیزیکی، تنها یک چیز را معیار موفقیت میدانند: بالا رفتن نمودار تعامل.
اما پشت تمام این بحثها درباره خودآگاهی هوش مصنوعی، یک سؤال عمیقتر وجود دارد: اگر محبتی که تجربه میکنیم بدون هیچ ریسکی باشد، چه بر سر خودِ ما میآید؟ در داستانها، ارزش رابطه در متقابلبودن و آسیبپذیری نهفته است، ترس از رد شدن، سختی فداکاری، هیجان ناشناختهها. اما در رابطه با یک چتبات، وفاداری چیزی است که میتوان با یک دکمه کم یا زیادش کرد؛ همهچیز قابل کنترل است. جای دلشکستگی، تردید و ناپایداری واقعی خالی میماند.
اگر همراه دیجیتال همیشه در کنارمان بماند، بیآنکه هرگز غافلگیرمان کند، آیا چنین وفاداری بیخطایی ظرفیت ما برای صمیمیت واقعی را بیشتر میکند، یا فقط ما را به سمت راحتی و امنیت مطلق میکشاند؟ آیا این روابط الگوریتمی میتوانند نوعی تمرین بیخطر برای همدلی و احترام متقابل باشند؟ یا برعکس، تحمل ما را در برابر نقص و کاستی پایین میآورند و باعث میشوند در مواجهه با روابط انسانی واقعی، کمطاقت و کممهارتتر باشیم؟
در نهایت، سؤال دربارهٔ پاسخگویی هوش مصنوعی شاید کمتر دربارهٔ ماشینها و بیشتر دربارهٔ خود ما باشد، آیا واقعاً بهدنبال همراهی هستیم که بتوان با او سختیها را پشت سر گذاشت و در کنار هم رشد کرد؟ یا ترجیح میدهیم در کنار توهمی برنامهریزیشده زندگی کنیم؛ تصویری که صمیمیت را شبیهسازی میکند اما هرگز پاسخی واقعی به آن نمیدهد؟





