سرهنگ ایالات متحده نظرات مربوط به حمله شبیه سازی شده پهپاد را «آزمایش فکری» پس گرفت | ارتش آمریکا

به گفته این انجمن، یک سرهنگ نیروی هوایی ایالات متحده هنگامی که در کنفرانس انجمن سلطنتی هوانوردی در ماه گذشته گفت که یک هواپیمای بدون سرنشین اپراتور خود را در یک آزمایش شبیه سازی شده کشته است، به این دلیل که خلبان در حال تلاش برای نادیده گرفتن ماموریت خود بود، “اشتباه” کرد.

سردرگمی با انتشار یک پست وبلاگی از جامعه شروع شده بود که در آن سخنرانی سرهنگ تاکر “سینکو” همیلتون، رئیس آزمایش و عملیات هوش مصنوعی با نیروی هوایی ایالات متحده و یک خلبان آزمایشی آزمایشی جنگنده، در آینده را شرح می داد. اجلاس توانمندی‌های هوایی و فضایی در لندن در ماه می.

به گزارش بلاگ پست، همیلتون به جمعیت گفته بود که در یک شبیه سازی برای آزمایش یک پهپاد مجهز به هوش مصنوعی و آموزش دیده و تشویق شده برای کشتن اهداف، یک اپراتور به پهپاد دستور داده است که در برخی موارد اهداف خود را نکشد و پهپاد نیز پاسخ داده است. کشتن اپراتور

این نظرات باعث نگرانی عمیق در مورد استفاده از هوش مصنوعی در تسلیحات و مکالمات گسترده آنلاین شد. اما نیروی هوایی آمریکا عصر پنجشنبه انجام این آزمایش را رد کرد. انجمن سلطنتی هوانوردی در بیانیه‌ای در روز جمعه پاسخ داد که همیلتون نظرات خود را پس گرفته و توضیح داده است که «شبیه‌سازی هواپیماهای بدون سرنشین با هوش مصنوعی» یک «آزمایش فکری» فرضی است.

همیلتون گفت: «ما هرگز آن آزمایش را انجام نداده‌ایم، و نیازی هم نداریم که بفهمیم این یک نتیجه قابل قبول است.

این جنجال در حالی مطرح می شود که دولت ایالات متحده در حال دست و پنجه نرم کردن با نحوه تنظیم هوش مصنوعی است. نگرانی‌ها در مورد این فناوری توسط متخصصان و محققین اخلاق AI تکرار شده است که استدلال می‌کنند در حالی که اهداف بلندپروازانه‌ای برای این فناوری وجود دارد، مانند درمان بالقوه سرطان، به عنوان مثال، این فناوری هنوز دور است. در همین حال، آنها به شواهد قدیمی از آسیب‌های موجود اشاره می‌کنند، از جمله افزایش استفاده، گاهی اوقات، سیستم‌های نظارتی غیرقابل اعتماد که افراد سیاه‌پوست و قهوه‌ای را به اشتباه شناسایی می‌کند و می‌تواند منجر به پلیس بیش از حد و دستگیری‌های نادرست، تداوم اطلاعات نادرست در بسیاری از پلت‌فرم‌ها و نیز شود. مضرات بالقوه استفاده از فناوری نوپا برای نیرو دادن و به کار انداختن تسلیحات در مناطق بحرانی.

همیلتون در سخنرانی خود در ماه مه گفت: «اگر نمی‌خواهید در مورد اخلاق و هوش مصنوعی صحبت کنید، نمی‌توانید درباره هوش مصنوعی، هوش، یادگیری ماشینی، خودمختاری صحبت کنید.

در حالی که شبیه سازی که همیلتون از آن صحبت کرد، عملاً اتفاق نیفتاد، اما همیلتون معتقد است که «آزمایش فکری» هنوز هم در هنگام بررسی اینکه آیا و چگونه از هوش مصنوعی در سلاح ها استفاده می شود در نظر گرفته شود.

او در بیانیه‌ای که اظهارات اصلی خود را توضیح می‌دهد، گفت: «علی‌رغم اینکه این یک مثال فرضی است، این چالش‌های دنیای واقعی ناشی از قابلیت‌های مبتنی بر هوش مصنوعی را نشان می‌دهد و به همین دلیل است که نیروی هوایی به توسعه اخلاقی هوش مصنوعی متعهد است.

آن استفانک، سخنگوی نیروی هوایی آمریکا در بیانیه‌ای به اینسایدر گفت که اظهارات سرهنگ خارج از چارچوب است.

استفانک گفت: «وزارت نیروی هوایی چنین شبیه‌سازی پهپادهای هوش مصنوعی را انجام نداده است و به استفاده اخلاقی و مسئولانه از فناوری هوش مصنوعی متعهد است.