به گفته این انجمن، یک سرهنگ نیروی هوایی ایالات متحده هنگامی که در کنفرانس انجمن سلطنتی هوانوردی در ماه گذشته گفت که یک هواپیمای بدون سرنشین اپراتور خود را در یک آزمایش شبیه سازی شده کشته است، به این دلیل که خلبان در حال تلاش برای نادیده گرفتن ماموریت خود بود، “اشتباه” کرد.
سردرگمی با انتشار یک پست وبلاگی از جامعه شروع شده بود که در آن سخنرانی سرهنگ تاکر “سینکو” همیلتون، رئیس آزمایش و عملیات هوش مصنوعی با نیروی هوایی ایالات متحده و یک خلبان آزمایشی آزمایشی جنگنده، در آینده را شرح می داد. اجلاس توانمندیهای هوایی و فضایی در لندن در ماه می.
به گزارش بلاگ پست، همیلتون به جمعیت گفته بود که در یک شبیه سازی برای آزمایش یک پهپاد مجهز به هوش مصنوعی و آموزش دیده و تشویق شده برای کشتن اهداف، یک اپراتور به پهپاد دستور داده است که در برخی موارد اهداف خود را نکشد و پهپاد نیز پاسخ داده است. کشتن اپراتور
این نظرات باعث نگرانی عمیق در مورد استفاده از هوش مصنوعی در تسلیحات و مکالمات گسترده آنلاین شد. اما نیروی هوایی آمریکا عصر پنجشنبه انجام این آزمایش را رد کرد. انجمن سلطنتی هوانوردی در بیانیهای در روز جمعه پاسخ داد که همیلتون نظرات خود را پس گرفته و توضیح داده است که «شبیهسازی هواپیماهای بدون سرنشین با هوش مصنوعی» یک «آزمایش فکری» فرضی است.
همیلتون گفت: «ما هرگز آن آزمایش را انجام ندادهایم، و نیازی هم نداریم که بفهمیم این یک نتیجه قابل قبول است.
این جنجال در حالی مطرح می شود که دولت ایالات متحده در حال دست و پنجه نرم کردن با نحوه تنظیم هوش مصنوعی است. نگرانیها در مورد این فناوری توسط متخصصان و محققین اخلاق AI تکرار شده است که استدلال میکنند در حالی که اهداف بلندپروازانهای برای این فناوری وجود دارد، مانند درمان بالقوه سرطان، به عنوان مثال، این فناوری هنوز دور است. در همین حال، آنها به شواهد قدیمی از آسیبهای موجود اشاره میکنند، از جمله افزایش استفاده، گاهی اوقات، سیستمهای نظارتی غیرقابل اعتماد که افراد سیاهپوست و قهوهای را به اشتباه شناسایی میکند و میتواند منجر به پلیس بیش از حد و دستگیریهای نادرست، تداوم اطلاعات نادرست در بسیاری از پلتفرمها و نیز شود. مضرات بالقوه استفاده از فناوری نوپا برای نیرو دادن و به کار انداختن تسلیحات در مناطق بحرانی.
همیلتون در سخنرانی خود در ماه مه گفت: «اگر نمیخواهید در مورد اخلاق و هوش مصنوعی صحبت کنید، نمیتوانید درباره هوش مصنوعی، هوش، یادگیری ماشینی، خودمختاری صحبت کنید.
در حالی که شبیه سازی که همیلتون از آن صحبت کرد، عملاً اتفاق نیفتاد، اما همیلتون معتقد است که «آزمایش فکری» هنوز هم در هنگام بررسی اینکه آیا و چگونه از هوش مصنوعی در سلاح ها استفاده می شود در نظر گرفته شود.
او در بیانیهای که اظهارات اصلی خود را توضیح میدهد، گفت: «علیرغم اینکه این یک مثال فرضی است، این چالشهای دنیای واقعی ناشی از قابلیتهای مبتنی بر هوش مصنوعی را نشان میدهد و به همین دلیل است که نیروی هوایی به توسعه اخلاقی هوش مصنوعی متعهد است.
آن استفانک، سخنگوی نیروی هوایی آمریکا در بیانیهای به اینسایدر گفت که اظهارات سرهنگ خارج از چارچوب است.
استفانک گفت: «وزارت نیروی هوایی چنین شبیهسازی پهپادهای هوش مصنوعی را انجام نداده است و به استفاده اخلاقی و مسئولانه از فناوری هوش مصنوعی متعهد است.