بریتانیا و ایالات متحده در میان پیشرفت های سریع صنعت هوش مصنوعی مداخله می کنند | هوش مصنوعی (AI)

بریتانیا و ایالات متحده در رقابت برای توسعه فناوری هوش مصنوعی قوی‌تر مداخله کرده‌اند، زیرا ناظر رقابت بریتانیا بازبینی این بخش را آغاز کرد و کاخ سفید به شرکت‌های فناوری توصیه کرد که مسئولیت اساسی خود را برای توسعه محصولات ایمن داشته باشند.

قانون‌گذاران تحت فشار فزاینده‌ای برای مداخله هستند، زیرا ظهور زبان‌سازهای مبتنی بر هوش مصنوعی مانند ChatGPT نگرانی‌هایی را در مورد انتشار احتمالی اطلاعات نادرست، افزایش تقلب و تأثیر آن بر بازار کار ایجاد می‌کند و ایلان ماسک در میان تقریباً 30000 امضاکننده نامه ای که ماه گذشته منتشر شد و خواستار توقف پروژه های مهم شد.

سازمان رقابت و بازار بریتانیا (CMA) روز پنجشنبه اعلام کرد که سیستم‌های زیربنایی – یا مدل‌های پایه – پشت ابزارهای هوش مصنوعی را بررسی خواهد کرد. بررسی اولیه که توسط یک کارشناس حقوقی به عنوان یک “هشدار قبلی” برای این بخش توصیف شده است، یافته های خود را در سپتامبر منتشر خواهد کرد.

در همان روز، دولت ایالات متحده اقداماتی را برای مقابله با خطرات توسعه هوش مصنوعی اعلام کرد، زیرا کامالا هریس، معاون رئیس جمهور، با مدیران اجرایی در خط مقدم پیشرفت های سریع صنعت ملاقات کرد. کاخ سفید در بیانیه‌ای اعلام کرد شرکت‌هایی که این فناوری را توسعه می‌دهند “مسئولیت اساسی برای اطمینان از ایمن بودن محصولاتشان قبل از استقرار یا عمومی شدن” دارند.

این جلسه یک هفته را به پایان رساند که طی آن تعدادی از دانشمندان و رهبران تجاری هشدارهایی را درباره سرعتی که این فناوری می‌تواند صنایع مستقر را مختل کند، صادر کردند. روز دوشنبه، جفری هینتون، «پدرخوانده هوش مصنوعی»، گوگل را ترک کرد تا آزادانه‌تر در مورد خطرات این فناوری صحبت کند، در حالی که مشاور علمی دولت بریتانیا، سر پاتریک والانس، از وزیران خواست تا «پیشتر» از مسائل عمیق اجتماعی و اجتماعی بروند. تغییرات اقتصادی که می تواند توسط هوش مصنوعی ایجاد شود، گفت که تأثیر آن بر مشاغل می تواند به اندازه انقلاب صنعتی باشد.

سارا کاردل گفت هوش مصنوعی این پتانسیل را دارد که شیوه رقابت کسب‌وکارها را تغییر دهد، اما باید از مصرف‌کنندگان محافظت کرد.

مدیر اجرایی CMA گفت: “هوش مصنوعی در چند ماه گذشته به آگاهی عمومی نفوذ کرده است، اما برای مدتی در رادار ما بوده است. بسیار مهم است که مزایای بالقوه این فناوری متحول کننده به راحتی برای مشاغل و مصرف کنندگان بریتانیا قابل دسترسی باشد در حالی که مردم در برابر مسائلی مانند اطلاعات نادرست یا گمراه کننده محافظت می شوند.

ChatGPT و سرویس رقیب Google Bard مستعد ارائه اطلاعات نادرست در پاسخ به درخواست های کاربران هستند، در حالی که نگرانی هایی در مورد کلاهبرداری های صوتی ایجاد شده توسط هوش مصنوعی مطرح شده است. سازمان ضد اطلاعات نادرست NewsGuard این هفته گفت که چت ربات‌هایی که وانمود می‌کنند روزنامه‌نگار هستند، تقریباً 50 مزرعه محتوای تولید شده توسط هوش مصنوعی را اجرا می‌کنند. ماه گذشته، آهنگی با آوازهای جعلی ساخته‌شده توسط هوش مصنوعی که ادعا می‌شد Drake and the Weeknd بود، از سرویس‌های استریم حذف شد.

بررسی CMA به بررسی این موضوع می‌پردازد که چگونه بازارهای مدل‌های پایه می‌توانند تکامل یابند، چه فرصت‌ها و ریسک‌هایی برای مصرف‌کنندگان و رقابت وجود دارد، و «اصول راهنما» را برای حمایت از رقابت و حمایت از مصرف‌کنندگان تدوین می‌کند.

بازیگران پیشرو در هوش مصنوعی مایکروسافت، توسعه دهنده ChatGPT OpenAI – که مایکروسافت در آن سرمایه گذار است – و آلفابت مادر گوگل، که صاحب یک تجارت پیشرو در زمینه هوش مصنوعی در بریتانیا در DeepMind است، در حالی که استارت آپ های پیشرو هوش مصنوعی شامل Anthropic و Stability AI بریتانیایی هستند. شرکت پشت Stable Diffusion.

الکس هافنر، شریک رقابت در شرکت حقوقی Fladgate بریتانیا، گفت: «با توجه به جهت گیری سفرهای نظارتی در حال حاضر و این واقعیت که CMA تصمیم دارد منابعی را به این حوزه اختصاص دهد، اعلام آن باید به عنوان نوعی هشدار قبلی تلقی شود. در مورد توسعه تهاجمی برنامه‌های هوش مصنوعی بدون بررسی دقیق.»

در ایالات متحده، هریس با مدیران اجرایی OpenAI، Alphabet و Microsoft در کاخ سفید ملاقات کرد و اقداماتی را برای مقابله با خطرات توسعه کنترل نشده هوش مصنوعی بیان کرد.

دولت اعلام کرد که ۱۴۰ میلیون دلار (۱۱۱ میلیون پوند) در هفت موسسه ملی تحقیقاتی ملی هوش مصنوعی سرمایه‌گذاری خواهد کرد تا پیشرفت‌های هوش مصنوعی را دنبال کند که «اخلاقی، قابل اعتماد، مسئولیت‌پذیر و در خدمت خیر عمومی هستند». توسعه هوش مصنوعی تحت سلطه بخش خصوصی است و صنعت فناوری در سال گذشته 32 مدل یادگیری ماشینی قابل توجه تولید کرد، در مقایسه با سه مدل تولید شده توسط دانشگاه.

توسعه دهندگان پیشرو هوش مصنوعی همچنین موافقت کرده اند که سیستم های آنها به طور عمومی در کنفرانس امنیت سایبری Defcon 31 امسال مورد ارزیابی قرار گیرد. شرکت‌هایی که موافقت کرده‌اند شامل OpenAI، Google، Microsoft و Stability AI هستند.

از تبلیغات قبلی خبرنامه رد شوید

کاخ سفید گفت: «این تمرین مستقل اطلاعات مهمی را در مورد تأثیرات این مدل‌ها در اختیار محققان و عموم قرار می‌دهد».

همچنین روز پنجشنبه به اتحادیه اروپا گفته شد که باید از تحقیقات مردمی هوش مصنوعی محافظت کند یا خطر واگذاری کنترل توسعه فناوری به شرکت‌های آمریکایی را تهدید کند.

در نامه‌ای سرگشاده که توسط گروه تحقیقاتی آلمانی Laion یا شبکه باز هوش مصنوعی در مقیاس بزرگ هماهنگ شده بود، به پارلمان اروپا گفته شد که قوانین یک‌اندازه برای همه خطر حذف تحقیق و توسعه باز را به همراه دارد.

«قوانینی که یک محقق یا توسعه‌دهنده را ملزم به نظارت یا کنترل استفاده پایین دستی می‌کند، می‌تواند انتشار AI منبع باز در اروپا را غیرممکن کند، که «شرکت‌های بزرگ را تثبیت می‌کند» و «تلاش‌ها برای بهبود شفافیت، کاهش رقابت، محدود کردن آزادی آکادمیک را مختل می‌کند». و سرمایه گذاری در هوش مصنوعی در خارج از کشور را هدایت کنید.» در این نامه آمده است.

«اروپا نمی تواند حق حاکمیت هوش مصنوعی را از دست بدهد. حذف تحقیق و توسعه منبع باز، جامعه علمی و اقتصاد اروپا را به شدت به چند شرکت خارجی و اختصاصی برای زیرساخت های ضروری هوش مصنوعی وابسته خواهد کرد.

بزرگترین تلاش های هوش مصنوعی، توسط شرکت هایی مانند OpenAI و Google، به شدت توسط سازندگان آنها کنترل می شود. برای مثال، دانلود مدل پشت ChatGPT غیرممکن است، و دسترسی پولی OpenAI که OpenAI برای مشتریان فراهم می کند، با تعدادی محدودیت قانونی و فنی در مورد نحوه استفاده از آن همراه است. در مقابل، تلاش‌های منبع باز شامل ایجاد یک مدل و سپس انتشار آن برای هر کسی می‌شود تا آن‌طور که صلاح می‌داند استفاده، بهبود یا تطبیق دهد.

کریستف شوهمان، رهبر سازمانی در Laion گفت: «ما در حال کار روی هوش مصنوعی منبع باز هستیم، زیرا فکر می‌کنیم این نوع هوش مصنوعی ایمن‌تر، در دسترس‌تر و دموکراتیک‌تر خواهد بود.