مدیر عامل OpenAI و خالق ChatGPT می گوید: “تنظیم AI ضروری است” | ChatGPT

مدیر عامل OpenAI، شرکتی که مسئول ایجاد ربات چت هوش مصنوعی ChatGPT و تولید کننده تصویر Dall-E 2 است، روز سه‌شنبه هنگام شهادت در مقابل یک کمیته قضایی سنا گفت: «تنظیم AI ضروری است».

سام آلتمن در اولین حضور خود در مقابل کنگره گفت که از نرده‌های محافظ نظارتی برای فناوری پشتیبانی می‌کند که مزایای هوش مصنوعی را در عین به حداقل رساندن مضرات ممکن می‌سازد.

آلتمن در اظهارات آماده شده خود گفت: “ما فکر می کنیم که مداخله نظارتی دولت ها برای کاهش خطرات مدل های قدرتمندتر بسیار مهم است.” به عنوان مثال، دولت ایالات متحده ممکن است الزامات مجوز و آزمایش را برای توسعه و انتشار مدل‌های هوش مصنوعی بالاتر از حد آستانه در نظر بگیرد.»

آلتمن گفت که در حالی که این شرکت در حال ساخت ابزارهایی است که «یک روز به ما کمک می‌کند تا اکتشافات جدید انجام دهیم و به برخی از بزرگترین چالش‌های بشری مانند تغییرات آب و هوایی و درمان سرطان رسیدگی کنیم، اما سیستم‌های فعلی هنوز قادر به انجام این کارها نیستند.

او همچنین گفت که در حالی که او معتقد است مزایای ابزارهای به کار گرفته شده تا کنون “به شدت بیشتر از خطرات است”، این شرکت آزمایش های گسترده ای انجام می دهد و سیستم های ایمنی و نظارت قوی را قبل از انتشار هر سیستم جدیدی اجرا می کند. آلتمن گفت: «اطمینان از ایمنی آنها برای کار ما حیاتی است.

آلتمن می‌گوید: «OpenAI بر این باور بنا شد که هوش مصنوعی می‌تواند تقریباً جنبه‌های زندگی ما را بهبود بخشد، اما همچنین خطرات جدی ایجاد می‌کند که برای مدیریت آن باید با هم کار کنیم.»

سناتورهای جاش هاولی و ریچارد بلومنتال می گویند این جلسه تنها اولین گام برای درک این فناوری است. هاولی گفت که این فناوری به شیوه‌هایی که ما حتی نمی‌توانیم تصورش را بکنیم متحول خواهد شد و پیامدهایی برای انتخابات، مشاغل و امنیت آمریکایی‌ها خواهد داشت.

بلومنتال جلسه را با پخش یک مقدمه صوتی در صدای خود آغاز کرد. صدای ضبط شده ای که Blumenthal پخش کرد، گفت: “بسیار اوقات ما دیده ایم که وقتی فناوری از مقررات پیشی می گیرد چه اتفاقی می افتد.” “بهره برداری افسار گسیخته از داده های شخصی… ما دیدیم که چگونه سوگیری های الگوریتمی می تواند تبعیض و تعصب را تداوم بخشد… این آینده ای نیست که ما می خواهیم.” اما در واقع این صدای بلومنتال نبود.

بلومنتال گفت: «صوت یک نرم‌افزار شبیه‌سازی صدای هوش مصنوعی بود که در سخنرانی‌های من آموزش داده شد و اظهارات توسط ChatGPT نوشته شد، زمانی که از آن پرسیده شد که چگونه این جلسه را باز کنم.

بلومنتال گفت که می‌داند جامعه در آستانه یک دوره جدید است و آنچه را که به عنوان «وعده‌های» این فناوری از جمله «درمان سرطان، توسعه درک جدید از فیزیک و زیست‌شناسی، یا مدل‌سازی آب و هوا و آب‌وهوا» توصیف می‌کند، خواند. او همچنین آلتمن را به خاطر جلب توجه به مشکلات این فناوری تحسین کرد.

خطرات احتمالی بلومنتال گفت که او نگران آن است شامل جعلیات عمیق، اطلاعات نادرست مسلحانه، تبعیض در مسکن، آزار و اذیت زنان و کلاهبرداری جعل هویت. او گفت: “برای من، شاید بزرگترین کابوس، انقلاب صنعتی جدید در حال پیشروی، آواره شدن میلیون ها کارگر باشد.”

کارشناسان مشهور و معتبر هوش مصنوعی و اخلاق مداران از جمله محققین سابق گوگل، دکتر تیمنیت گبرو، که رهبری تیم هوش مصنوعی اخلاقی این شرکت را برعهده داشتند، و مردیث ویتاکر زنگ خطر را در مورد پذیرش سریع این فناوری به صدا درآورده اند و می گویند که این فناوری بیش از حد تبلیغاتی است و وجود دارد. یک کالای اجتماعی ذاتی نیست که فناوری به تحقق آن کمک کند.

ویتاکر، در حال حاضر، گفت: «آنچه واقعاً هست، یک موتور احتمالی است که برای تفکیک چیزهایی طراحی شده است که قابل قبول به نظر می‌رسند، بر اساس پیش‌بینی اینکه چگونه باید به نظر برسد و بر اساس مقادیر انبوهی از داده‌های نظارت مؤثر است که از وب حذف شده است». رئیس برنامه پیام‌رسانی ایمن Signal، در یک گزارش گفت مصاحبه در ملاقات با مطبوعات.

ویتاکر گفت که توسعه مدل‌های زبان بزرگی که ChatGPT و محصولات مشابه را تقویت می‌کنند نیز عمدتاً در دست همان شرکت‌هایی است که در حال حاضر بر صنعت فناوری تسلط دارند و پویایی قدرت موجود را تقویت می‌کنند.

او ادامه داد: «تنها تعداد انگشت شماری از شرکت‌ها در جهان وجود دارند که ترکیبی از داده‌ها و قدرت زیرساختی را برای ایجاد آنچه ما هوش مصنوعی می‌نامیم از دماغه تا دم دارند.» «این خطر قدرت متمرکز و قدرت متمرکزی است که توانایی فوق‌العاده‌ای در شکل دادن به چشم‌انداز اجتماعی و سیاسی ما دارد. ما اکنون در موقعیتی هستیم که این فناوری بیش از حد در حال ایجاد، توزیع و در نهایت شکل‌دهی است تا در خدمت منافع اقتصادی همین تعداد انگشت شماری از بازیگران باشد.»

او گفت: “بنابراین این ایده که این به طور جادویی به منبع خوبی اجتماعی تبدیل می شود یا اینکه این یک ماده طبیعی است که همه ما توانایی استفاده یکسان از آن را داریم، به سادگی درست نیست.” “این یک خیال است برای بازاریابی این برنامه ها.”