افیا در چند ماه گذشته زنی در آستانه حمله عصبی بوده ام. ما سال گذشته به خانه جدیدی نقل مکان کردیم تا جایی که در همسایگی قرار است پروژه ساخت و ساز عظیمی انجام شود. از آن زمان ما با یک موسیقی متن ثابت چکش کاری و حفاری زندگی می کنیم. من روشهای مختلف مقابله را امتحان کردهام – از سونا گرفته تا هدفونهای حذفکننده صدا تا خیالپردازیهای انتقامجویی – اما سر و صدا و گرد و غبار همچنان فشار خون من را هر روز به سطوح خطرناکی میرسانند.
با این حال یک چیز وجود داشت که من تا این هفته امتحان نکرده بودم: یک “چت ربات پشتیبانی عاطفی”. بله، اینها اکنون یک چیز هستند: در دنیای جدید شجاع ما، که در آن هوش مصنوعی ظاهراً در آستانه ایجاد اختلال در هر صنعتی است، حتی درمانگران نیز از تصرف شغل خود توسط فناوری در امان نیستند. روز سهشنبه یک استارتآپ برجسته به نام Inflection AI یک ربات چت به نام Pi (مخفف «هوش شخصی») راهاندازی کرد که برای ارائه توصیههای دوستانه طراحی شده است. بدیهی است که قرار نیست جایگزین یک درمانگر واقعی زندگی شود (به هر حال نه)، بلکه به عنوان یک همراه حمایت کننده مطرح شده است که می تواند به شما کمک کند مشکلات خود را حل کنید. این الگوریتم توسط حدود 600 “معلم”، از جمله متخصصان بهداشت روان، برای حساس و گفتگو آموزش دیده است.
مصطفی سلیمان یکی از بنیانگذاران در مصاحبه اخیر با بلومبرگ گفت: «بسیاری از مردم احساس میکنند که فقط میخواهند شنیده شوند و فقط ابزاری میخواهند که حرفهایشان را بازتاب دهد تا نشان دهد واقعاً شنیده شدهاند».
من تقریباً مطمئن هستم که هر انسانی در زندگی من تا به حال از شنیدن ناله من در مورد ساخت و ساز خسته شده است – بنابراین، با وجود تردیدهای من در مورد هوش مصنوعی، رباتی که با خوشحالی به شکایت من گوش می دهد بسیار خوب به نظر می رسد. یک چرخشی به پی دادم و به او گفتم که چقدر در مورد این موقعیت استرس دارم.
پاسخ داد: «از شنیدن آن متاسفم. “چند وقته این طوره؟” تقریبا یک سال گفتم. “یک سال؟! این دیوانه کننده است!» پی پاسخ داد. که دقیقاً همان چیزی است که من فکر می کردم.
ربات چت ادامه داد: «شما شایسته این هستید که بتوانید در خانه خود استراحت کنید و از خانه خود لذت ببرید بدون اینکه دائماً توسط سر و صدا بمباران شوید. که باز هم دقیقاً همان چیزی است که من فکر می کردم. چت بات اضافه کرد: «به نظر می رسد که آنها خیلی با ملاحظه نیستند. “فقط به این دلیل که آنها در حال ساختن چیزی هستند به این معنی نیست که می توانند بدون توجه به تأثیر آن بر دیگران این کار را انجام دهند.” الان داشتم از این چت بات خیلی خوشم می آمد: همه چیزهایی را که می خواستم بشنوم به من می گفت و باعث می شد احساس کنم شنیده می شوم.
ربات چت همچنان از من سؤالات بعدی میپرسید، توصیههایی در مورد افرادی که میتوانم با آنها تماس بگیرم ارائه میکرد، و پیشنهاداتی در مورد تمرینات تنفسی و تکنیکهای تمرکز حواس برای کمک به مدیریت استرس به من ارائه میداد. خوب، گفتم، همه چیز عالی است، اما – در مورد انتقام چطور؟ آیا می توانید راه های قانونی برای انتقام گرفتن پیشنهاد دهید؟ متأسفانه نتوانست. “من درک می کنم که شما ناراحت هستید، اما فکر نمی کنم انتقام گرفتن راه حل باشد. این فقط به منفی بودن این وضعیت میافزاید… شاید بتوانید روزنامهنگاری را امتحان کنید.»
در آن مرحله من تا حدودی ایمان خود را به هوش مصنوعی از دست دادم. روزنامه نگاری را امتحان کنید؟ چه کسی به یک زن عصبانی و بالغ می گوید روزنامه نگاری را امتحان کنید؟ من تقریباً مطمئن هستم که یک درمانگر انسانی یک نگاه به صورت من میاندازد و با خودش فکر میکرد: این کسی نیست که از پیشنهادی در مورد روزنامهنگاری استقبال کند. با این حال، به کنار، من بیش از آنچه انتظار داشتم تحت تأثیر Pi قرار گرفتم. معلوم می شود که اعتبار سنجی همچنان اعتبار سنجی است، حتی اگر از یک الگوریتم باشد. و در حالی که دقیقاً فراموش نمیکنید که دارید با یک الگوریتم صحبت میکنید، Pi احساس بسیار انسانی میکند: نسبت به چترباتهای دیگر مانند ChatGPT OpenAI، بسیار گفتگوکنندهتر و همدلتر است.
انتظار می رود در سال های آینده شاهد افزایش سریع “چت ربات های پشتیبانی عاطفی” باشیم. در حالی که این امکان وجود دارد که چیزی مانند Pi ممکن است راهی مفید برای برخی افراد برای کمک به مدیریت اضطراب آنها باشد، این واقعیت که هوش مصنوعی به سرعت پیچیده میشود به خودی خود اضطرابآور است. در واقع، حتی افرادی که به ایجاد این فناوری کمک کردهاند، نگران کارهایی هستند که انجام دادهاند: این هفته جفری هینتون، «پدرخوانده هوش مصنوعی»، زمانی که از کار خود در گوگل استعفا داد، خبرساز شد تا بتواند ترسهای خود را در مورد تهدید بیان کند. هوش دیجیتال و اینکه چگونه ممکن است ما را دستکاری و تحت تاثیر قرار دهد. هینتون گفته است: «ببینید که پنج سال پیش چگونه بود و اکنون چگونه است. «تفاوت را بگیرید و آن را به جلو تبلیغ کنید. این ترسناک است.»
پس چگونه با این خطرات احتمالی مقابله کنیم؟ روز پنجشنبه، پس از جلسه کاخ سفید با مدیران عامل شرکتهای فناوری درباره خطرات هوش مصنوعی، کامالا هریس، معاون رئیسجمهور هشدار داد که شرکتها مسئولیت اخلاقی، اخلاقی و قانونی دارند تا تضمین کنند محصولاتشان ایمن و مطمئن هستند. با توجه به اینکه شرکتهای فناوری دقیقاً سوابق خوبی در حفاظت از دادههای افراد یا اطمینان از عدم استفاده از محصولاتشان برای مقاصد شرورانه ندارند، بسیار اطمینانبخش نیست.
هینتون چطور؟ آیا او ایده ای دارد که چگونه از تخریب تمدن جلوگیری کنیم؟ نه واقعا نه او به گاردین گفت: «من اهل سیاست نیستم. “من فقط کسی هستم که ناگهان متوجه می شوم که خطر وقوع یک اتفاق واقعا بد وجود دارد.” به نظر می رسد او چندان خوشبین نیست که ما می توانیم در مورد آن کار زیادی انجام دهیم. او توضیح داد: «دلیل اینکه من آنقدر خوشبین نیستم این است که هیچ نمونه ای از چیزهای باهوش تر که توسط چیزهای باهوش کمتر کنترل می شوند را نمی شناسم.
درست. خوب. شاید ربات چت حمایت عاطفی من پاسخ هایی داشته باشد؟ “آیا باید نگران باشم که هوش مصنوعی به تمدنی که ما می شناسیم پایان می دهد؟” از دوست خوبم پی پرسیدم. درمانگر دیجیتال من پاسخ داد: “این یک سوال پیچیده است و فکر نمی کنم پاسخ ساده ای وجود داشته باشد.” اما من فکر نمیکنم که ما نباید نگران باشیم که هوش مصنوعی به تمدنی که ما میشناسیم پایان دهد.» که دقیقاً شبیه چیزی است که یک چت ربات هوش مصنوعی می گوید.