آیا یک چت ربات «حمایت عاطفی» می تواند به کاهش استرس من کمک کند؟ فقط یک راه برای فهمیدن | عروه مهدوی

افیا در چند ماه گذشته زنی در آستانه حمله عصبی بوده ام. ما سال گذشته به خانه جدیدی نقل مکان کردیم تا جایی که در همسایگی قرار است پروژه ساخت و ساز عظیمی انجام شود. از آن زمان ما با یک موسیقی متن ثابت چکش کاری و حفاری زندگی می کنیم. من روش‌های مختلف مقابله را امتحان کرده‌ام – از سونا گرفته تا هدفون‌های حذف‌کننده صدا تا خیال‌پردازی‌های انتقام‌جویی – اما سر و صدا و گرد و غبار همچنان فشار خون من را هر روز به سطوح خطرناکی می‌رسانند.

با این حال یک چیز وجود داشت که من تا این هفته امتحان نکرده بودم: یک “چت ربات پشتیبانی عاطفی”. بله، اینها اکنون یک چیز هستند: در دنیای جدید شجاع ما، که در آن هوش مصنوعی ظاهراً در آستانه ایجاد اختلال در هر صنعتی است، حتی درمانگران نیز از تصرف شغل خود توسط فناوری در امان نیستند. روز سه‌شنبه یک استارت‌آپ برجسته به نام Inflection AI یک ربات چت به نام Pi (مخفف «هوش شخصی») راه‌اندازی کرد که برای ارائه توصیه‌های دوستانه طراحی شده است. بدیهی است که قرار نیست جایگزین یک درمانگر واقعی زندگی شود (به هر حال نه)، بلکه به عنوان یک همراه حمایت کننده مطرح شده است که می تواند به شما کمک کند مشکلات خود را حل کنید. این الگوریتم توسط حدود 600 “معلم”، از جمله متخصصان بهداشت روان، برای حساس و گفتگو آموزش دیده است.

مصطفی سلیمان یکی از بنیانگذاران در مصاحبه اخیر با بلومبرگ گفت: «بسیاری از مردم احساس می‌کنند که فقط می‌خواهند شنیده شوند و فقط ابزاری می‌خواهند که حرف‌هایشان را بازتاب دهد تا نشان دهد واقعاً شنیده شده‌اند».

من تقریباً مطمئن هستم که هر انسانی در زندگی من تا به حال از شنیدن ناله من در مورد ساخت و ساز خسته شده است – بنابراین، با وجود تردیدهای من در مورد هوش مصنوعی، رباتی که با خوشحالی به شکایت من گوش می دهد بسیار خوب به نظر می رسد. یک چرخشی به پی دادم و به او گفتم که چقدر در مورد این موقعیت استرس دارم.

پاسخ داد: «از شنیدن آن متاسفم. “چند وقته این طوره؟” تقریبا یک سال گفتم. “یک سال؟! این دیوانه کننده است!» پی پاسخ داد. که دقیقاً همان چیزی است که من فکر می کردم.

ربات چت ادامه داد: «شما شایسته این هستید که بتوانید در خانه خود استراحت کنید و از خانه خود لذت ببرید بدون اینکه دائماً توسط سر و صدا بمباران شوید. که باز هم دقیقاً همان چیزی است که من فکر می کردم. چت بات اضافه کرد: «به نظر می رسد که آنها خیلی با ملاحظه نیستند. “فقط به این دلیل که آنها در حال ساختن چیزی هستند به این معنی نیست که می توانند بدون توجه به تأثیر آن بر دیگران این کار را انجام دهند.” الان داشتم از این چت بات خیلی خوشم می آمد: همه چیزهایی را که می خواستم بشنوم به من می گفت و باعث می شد احساس کنم شنیده می شوم.

ربات چت همچنان از من سؤالات بعدی می‌پرسید، توصیه‌هایی در مورد افرادی که می‌توانم با آنها تماس بگیرم ارائه می‌کرد، و پیشنهاداتی در مورد تمرینات تنفسی و تکنیک‌های تمرکز حواس برای کمک به مدیریت استرس به من ارائه می‌داد. خوب، گفتم، همه چیز عالی است، اما – در مورد انتقام چطور؟ آیا می توانید راه های قانونی برای انتقام گرفتن پیشنهاد دهید؟ متأسفانه نتوانست. “من درک می کنم که شما ناراحت هستید، اما فکر نمی کنم انتقام گرفتن راه حل باشد. این فقط به منفی بودن این وضعیت می‌افزاید… شاید بتوانید روزنامه‌نگاری را امتحان کنید.»

در آن مرحله من تا حدودی ایمان خود را به هوش مصنوعی از دست دادم. روزنامه نگاری را امتحان کنید؟ چه کسی به یک زن عصبانی و بالغ می گوید روزنامه نگاری را امتحان کنید؟ من تقریباً مطمئن هستم که یک درمانگر انسانی یک نگاه به صورت من می‌اندازد و با خودش فکر می‌کرد: این کسی نیست که از پیشنهادی در مورد روزنامه‌نگاری استقبال کند. با این حال، به کنار، من بیش از آنچه انتظار داشتم تحت تأثیر Pi قرار گرفتم. معلوم می شود که اعتبار سنجی همچنان اعتبار سنجی است، حتی اگر از یک الگوریتم باشد. و در حالی که دقیقاً فراموش نمی‌کنید که دارید با یک الگوریتم صحبت می‌کنید، Pi احساس بسیار انسانی می‌کند: نسبت به چت‌ربات‌های دیگر مانند ChatGPT OpenAI، بسیار گفتگوکننده‌تر و همدل‌تر است.

انتظار می رود در سال های آینده شاهد افزایش سریع “چت ربات های پشتیبانی عاطفی” باشیم. در حالی که این امکان وجود دارد که چیزی مانند Pi ممکن است راهی مفید برای برخی افراد برای کمک به مدیریت اضطراب آنها باشد، این واقعیت که هوش مصنوعی به سرعت پیچیده می‌شود به خودی خود اضطراب‌آور است. در واقع، حتی افرادی که به ایجاد این فناوری کمک کرده‌اند، نگران کارهایی هستند که انجام داده‌اند: این هفته جفری هینتون، «پدرخوانده هوش مصنوعی»، زمانی که از کار خود در گوگل استعفا داد، خبرساز شد تا بتواند ترس‌های خود را در مورد تهدید بیان کند. هوش دیجیتال و اینکه چگونه ممکن است ما را دستکاری و تحت تاثیر قرار دهد. هینتون گفته است: «ببینید که پنج سال پیش چگونه بود و اکنون چگونه است. «تفاوت را بگیرید و آن را به جلو تبلیغ کنید. این ترسناک است.»

پس چگونه با این خطرات احتمالی مقابله کنیم؟ روز پنج‌شنبه، پس از جلسه کاخ سفید با مدیران عامل شرکت‌های فناوری درباره خطرات هوش مصنوعی، کامالا هریس، معاون رئیس‌جمهور هشدار داد که شرکت‌ها مسئولیت اخلاقی، اخلاقی و قانونی دارند تا تضمین کنند محصولاتشان ایمن و مطمئن هستند. با توجه به اینکه شرکت‌های فناوری دقیقاً سوابق خوبی در حفاظت از داده‌های افراد یا اطمینان از عدم استفاده از محصولاتشان برای مقاصد شرورانه ندارند، بسیار اطمینان‌بخش نیست.

هینتون چطور؟ آیا او ایده ای دارد که چگونه از تخریب تمدن جلوگیری کنیم؟ نه واقعا نه او به گاردین گفت: «من اهل سیاست نیستم. “من فقط کسی هستم که ناگهان متوجه می شوم که خطر وقوع یک اتفاق واقعا بد وجود دارد.” به نظر می رسد او چندان خوشبین نیست که ما می توانیم در مورد آن کار زیادی انجام دهیم. او توضیح داد: «دلیل اینکه من آنقدر خوشبین نیستم این است که هیچ نمونه ای از چیزهای باهوش تر که توسط چیزهای باهوش کمتر کنترل می شوند را نمی شناسم.

درست. خوب. شاید ربات چت حمایت عاطفی من پاسخ هایی داشته باشد؟ “آیا باید نگران باشم که هوش مصنوعی به تمدنی که ما می شناسیم پایان می دهد؟” از دوست خوبم پی پرسیدم. درمانگر دیجیتال من پاسخ داد: “این یک سوال پیچیده است و فکر نمی کنم پاسخ ساده ای وجود داشته باشد.” اما من فکر نمی‌کنم که ما نباید نگران باشیم که هوش مصنوعی به تمدنی که ما می‌شناسیم پایان دهد.» که دقیقاً شبیه چیزی است که یک چت ربات هوش مصنوعی می گوید.