خطرات هوش مصنوعی
در این مقاله به دنبال آشنایی هرچه بیشتر با هوش مصنوعی و خطرات آن برای جامعه و بشریت باشیم. در ادامه به برخی از این موارد میپردازیم.
به گزارش خبرگزاری موج، هوش مصنوعی روز به روز بزرگتر و پیشرفتهتر میشود و بخشهای بزرگتری از زندگی روزمره ما را در بر میگیرد. همزمان با رشد هوش مصنوعی، نگرانیها درباره خطرات هوش مصنوعی نیز بیشتر میشود. به گفته استیون هاوکینگ، توسعه هوش مصنوعی میتواند پایان نسل بشر باشد. افراد دیگری مانند ایلان ماسک نیز با او هم عقیدهاند، به صورتی که ایلان ماسک در سخنرانی خود بیان کرد:
“هوش مصنوعی مرا میترساند. این توانایی بسیار بیشتر از چیزی است که تقریباً هر کسی میداند و میزان بهبود آن به صورت تصاعدی است.”
این موضوع باعث شده تا به دنبال آشنایی هرچه بیشتر با هوش مصنوعی و خطرات آن برای جامعه و بشریت باشیم. در ادامه به برخی از این موارد میپردازیم.
خطرات هوش مصنوعی
هوش مصنوعی به صورتهای مختلفی میتواند برای بشر خطرناک باشد. در اولین قدم باید ببینیم توسعه دهنده این برنامهها چه کسی است و با چه هدفی آنها را تولید میکند. گاهی اوقات برنامه هوش مصنوعی از ابتدا با اهداف مخرب تولید میشود. اما در برخی موارد نیز برنامه با هدف فعالیتهای مفید تولید شده اما در راه انجام وظیفه خود، کارهای مخربی انجام میدهد. برخی از خطرات هوش مصنوعی در ادامه ذکر شدهاند.
از دست رفتن مشاغل به دلیل اتوماسیون هوش مصنوعی
یکی از مهمترین نگرانیهای هوش مصنوعی، اتوماسیون شغلی است. این فناوری در صنایع مختلفی مانند بازاریابی، تولید و مراقبتهای بهداشتی و انواع مختلفی از مشاغل استفاده میشود. با توجه به تحقیقات انجام شده از در فاصله سالهای ۲۰۲۰ تا ۲۰۲۵ بیش از ۸۵ میلیون شغل از بین میرود. در این شرایط سیاه پوستان و کارگران و کارمندان لاتین تبار بیشتر در معرض خطر هستند.
استفاده از هوش مصنوعی نسبت به نیروهای انسانی بسیار ارزانتر و اقتصادیتر هستند و این نیروها با دقت و سرعت بیشتری نسبت به نیروهای انسانی کار میکنند. هوش مصنوعی میتواند میلیونها شغل جدید ایجاد کند، اما بسیاری از نیروهای انسانی مهارتهای لازم برای نقشهای فنی را ندارند.
در این زمینه حتی شغلهایی که به تحصیلات آکادمیک و دانشگاهی نیاز دارند نیز در امان نخواهند بود. برخی از رشتهها مانند حقوق یا حسابداری، با سرعت بیشتری به تصاحب هوش مصنوعی در میآیند. از تأثیر قابل توجه آن در پزشکی نیز نمیتوان چشم پوشی کرد.
سم آلتمن و دیگر مدیران OpenAI هفته گذشته در مطلبی در وبلاگ این شرکت اعلام کردند که به سازمانی بینالمللی شبیه به آژانس انرژی اتمی نیاز است تا بتواند هوش مصنوعی را در سطح جهانی کنترل کرد. پیشتر نامه سرگشاده دیگری توسط سازمان غیرانتفاعی Future of Life با امضای افرادی مثل ایلان ماسک منتشر شده بود که درخواست توقف توسعه مدلهای پیشرفته هوش مصنوعی را داشت.
همه فعالان هوش مصنوعی از بابت خطرات این فناوری نگرانند
تفاوت این نامه در اینجاست که تنها در یک جمله به بیان یک نگرانی عمومی درباره فناوری هوش مصنوعی پرداخته و از ورود به جزئیاتی که ممکن است بر سر آنها اختلافاتی وجود داشته باشد، خودداری کرده است.
این نامه در شرایطی منتشر میشود که بسیاری از کارشناسان نگران پتانسیلهای خطرناک هوش مصنوعی هستند. پیشرفتهای اخیر درزمینه مدلهای زبانی بزرگ بهویژه از زمان عرضه عمومی چتبات ChatGPT خیلیها را درباره قابلیتهای این نرمافزارها در نشر اطلاعات نادرست یا تهدید مشاغل نگران کرده است.
همین مسئله باعث شده بسیاری از رهبران صنعت هوش مصنوعی با یکدیگر همصدا شوند و درخواست قانونگذاری در این حوزه را مطرح کنند. آلتمن، هاسابیس و آمودی چندی قبل با «جو بایدن»، رئیسجمهور و «کاملا هریس»، معاون اول رئیسجمهور آمریکا، دیدار و پیرامون قانونگذاری در این صنعت صحبت کردند. آلتمن همچنین به کنگره رفت تا درباره همین موضوع با نمایندگان ایالاتمتحده حرف بزند.
عدم هماهنگی میان اهداف ما و ماشین
بخشی از آنچه که انسانها در ماشینهای مجهز به هوش مصنوعی به دنبال آن بوده و برای آن ارزش قائل هستند، کارایی و اثربخشی آنهاست. اما، اگر اهدافی را که برای ماشینهای هوش مصنوعی تعیین کردهایم روشن و واضح نباشد، میتواند بسیار خطرناک باشد.
به عنوان مثال، دستور «در اسرع وقت مرا به فرودگاه برسانید» ممکن است عواقب بدی داشته باشد. این ماشین بدون توجه به قوانین جاده به دستور شما عمل کرده و این موضوع میتواند جان انسان را به خطر بیندازد. یک ماشین میتواند به طور موثر هدف خود را که شما را در سریعترین زمان ممکن به فرودگاه برساند انجام دهد، اما ردی از تصادفات را پشت سر باقی گذارد.
سلاحهای خودمختار
یکی از راههایی که هوش مصنوعی میتواند باعث ایجاد خطر شود، ساخت سلاحهای خودمختار است که برای کشتن برنامه ریزی شدهاند. حتی ممکن است مسابقه تسلیحات هستهای با یک مسابقه تسلیحاتی خودمختار ایجاد شود.
گذشته از نگرانی از این که سلاحهای خودمختار ممکن است “ذهن خود” را به دست آورند، نگرانی قریب الوقوعتر خطراتی است که این سلاحها ممکن است برای فرد یا دولتی داشته باشند که برای زندگی انسان ارزشی قائل نیستند. پس از ایجاد این سلاحها، احتمالاً از بین بردن یا مبارزه با آنها بسیار دشوار خواهد بود.
دستکاری اجتماعی
رسانههای اجتماعی از طریق الگوریتمهای مستقل خود در بازاریابی هدف بسیار موثر عمل میکنند. آنها میدانند ما کی هستیم، چه چیزی را دوست داریم و در حدس زدن آنچه فکر میکنیم فوق العاده خوب و قوی عمل میکنند. قدرت هوش مصنوعی برای دستکاری اجتماعی بسیار بالاست. هوش مصنوعی میتواند با گسترش تبلیغات به افرادی که از طریق الگوریتمها و دادههای شخصی شناسایی شدهاند، آنها را هدف قرار دهد و هر اطلاعاتی را که دوست دارند، در هر قالبی که قانعکنندهتر باشد، چه واقعی و چه تخیلی، منتشر کند.
بد افزارهای هوش مصنوعی
هوش مصنوعی روز به روز در هک کردن و شکستن رمزها در سیستمهای امنیتی پیشرفت میکند. این موضوع به دلیل پیشرفت و تکامل الگوریتمهای مورد استفاده در هوش مصنوعی و یادگیری ماشین است. هر بدافزاری که در این زمینه طراحی و ساخته میشود، روز به روز با آزمون و خطا بهتر شده و این بهتر شدن میتواند آن را خطرناکتر کند.
این بدافزارها با اهداف مختلفی طراحی میشوند که میتوانند برای انسان نیز خطرناک باشد. تصور کنید بدافزاری با هدف اختلال در خودروهای خودران ایجاد شود. این بدافزار میتواند باعث بروز مشکل در خودرو و ایجاد تصادفات مختلف شود. هرچه استفاده از هوش مصنوعی و سیستمهای هوشمند در زندگی بیشتر شود، احتمال بروز خطر نیز بیشتر میشود.
جمع بندی
در اصل، هوش مصنوعی ساخت ماشینهایی است که میتوانند هوشمندانه فکر و عمل کنند. بیشتر برنامههای فعلی برای تأثیرگذاری مثبت بر بشر استفاده میشود، اما هر ابزار قدرتمندی را میتوان برای اهداف مضر در زمانی که به دست افراد نادرست بیفتد استفاده کرد.
امروز، ما به هوش مصنوعی کاربردی دست یافتهایم که وظایف محدودی مانند تشخیص چهره، پردازش زبان طبیعی یا جستجوهای اینترنتی را انجام میدهد. در نهایت، کارشناسان در این زمینه برای رسیدن به هوش مصنوعی تعمیمیافتهتر کار میکنند، جایی که سیستمها میتوانند هر کاری را که انسانهای هوشمند میتوانند انجام دهند، انجام دهند و به احتمال زیاد ما را در تمام آنها شکست دهند و این همان جایی است که هوش مصنوعی میتواند خطرناک باشد.
ارسال نظر