استراتژی پنتاگون در زمینه هوش مصنوعی
کارشناسان عنوان میکنند که پنتاگون در طرح استراتژی خود در زمینه هوش مصنوعی، موضوع اخلاق را موردتوجه قرار نداده است.
به گزارش خبرگزاری موج، وزارت دفاع آمریکا بهتازگی طرحی را درباره پذیرش سریع سیستمهای هوش مصنوعی در جنگ منتشر کرد.
این طرح بر استفاده از هوش مصنوعی برای بهدست آوردن آنچه بهعنوان «مزیت تصمیم» شناخته میشود، از طریق تسهیل آگاهی برتر از فضای نبرد، برنامهریزی و کاربرد نیروی تطبیقی، زنجیرههای کشتار سریع، دقیق و انعطاف پذیر و پشتیبانی پایدار تمرکز دارد.
این استراتژی بر سرعت، یکپارچگی بیشتر، شفافیت و اشتراک دانش در سراسر مرزهای سازمانی تمرکز کرده و اولویتبندی میکند و نیاز به اقدامات حفاظتی دقیق برای جلوگیری از سوءاستفاده آسیبپذیریهای فنی فناوریهای هوش مصنوعی را برجسته میکند.
آیا باید برای رباتهای قاتل آماده شویم؟
بحث جهانی درباره استفاده از هوش مصنوعی در سلاحها و بهویژه دورنمای حذف انسان از فرآیند تصمیمگیری درباره گرفتن جان یک فرد، بهشدت مورد توجه قرار گرفته است.
این موضوع برای چندین دهه مورد بحث بوده است و نهتنها از سوی دانشگاهیان مورد بحث قرار گرفته، بلکه به یک داستان علمی تخیلی محبوب از The Terminator ساخته جیمز کامرون و Robocop پل ورهوفن تا سریال انگلیسی Black Mirror و Ray Bradbury Fahrenheit ۴۵۱. تبدیل شده است.
اما در حالی که مقاله ۲۶ صفحهای استراتژی هوش مصنوعی وزارت دفاع آمریکا پر از گرافیکهای فانتزی و عکسهاست، واژه «اخلاق» تنها ۵ بار و تنها یک بار در زمینه مرتبط با نگرانیهای ذکر شده در بالا مورد اشاره قرار گرفته است.
این میتواند ۲ موضوع را نشان دهد: اینکه تمرکز پنتاگون بر سیستمهای هوش مصنوعی هنوز به دیدگاههای کابوسواری که از سوی نویسندگان علمی تخیلی ارائه شده، نرسیده است. یا اینکه ارتش آمریکا واقعاً به این موضوع فکر نکرده؛ درست در نقطهای که تواناییهای فنی و مکانیکی بشر به نقطهای میرسد که تهدید رباتهای قاتل مؤثر به یک امکان واقعی تبدیل میشود.
نگرانیها درباره استراتژی هوش مصنوعی پنتاگون
گلوریا شکورتی اوزدمیر، محقق بنیاد SETA، یک اندیشکده سیاسی مستقر در ترکیه، گفت: تهدید اصلی مرتبط با هوش مصنوعی در استفاده غیراخلاقی بالقوه آن است که میتواند به مرگ غیرنظامیانی منجر شود که سپر انسانی بوده یا از آنها محافظتی نمیشوند.
به.گفته وی، بهعنوان مثال، مفهوم سیستمهای تسلیحاتی خودمختار مرگبار (LAWS) نگرانکننده است، زیرا این سیستمها میتوانند افراد را بدون کنترل انسانی هدف قرار دهند. علاوه بر این، هوش مصنوعی میتواند برای حملات سایبری، بیولوژیکی، هستهای و سایر تهدیدات مورد استفاده قرار گیرد.
اما بهگفته اوزدمیر، خطر واقعی ناشی از هوش مصنوعی، خود این فناوری نیست، بلکه «نحوه استفاده از آن» است.
کارشناسان معتقدند در حالیکه ملاحظات اخلاقی و استفاده مسئولانه باید حوزه اصلی تمرکز پنتاگون در تعیین استراتژی هوش مصنوعی باشد، اما به هیچ وجه به آن توجه نشده است.
به نظر میرسد طرح جدید پنتاگون صرفا بر محیط سازمانی و بهبود توانایی ارتش آمریکا برای تصمیمگیری سریع تمرکز دارد.
کارشناسان میگویند استراتژی جدید هوش مصنوعی پنتاگون، همراه با دستور اجرایی جو بایدن، رئیسجمهور آمریکا درباره هوش مصنوعی در دوشنبه گذشته، همگی به یک دغدغه در میان سیاستگذاران آمریکایی مرتبط است: "حفظ برتری آمریکا در رقابت جهانی در زمینه هوش مصنوعی".
ارسال نظر