English

خطرات هوش مصنوعی

در این مقاله به دنبال آشنایی هرچه بیشتر با هوش مصنوعی و خطرات آن برای جامعه و بشریت باشیم. در ادامه به برخی از این موارد می‌پردازیم.

خطرات هوش مصنوعی

به گزارش خبرگزاری موج، هوش مصنوعی روز به روز بزرگ‌تر و پیشرفته‌تر می‌شود و بخش‌های بزرگ‌تری از زندگی روزمره ما را در بر می‌گیرد. همزمان با رشد هوش مصنوعی، نگرانی‌ها درباره خطرات هوش مصنوعی نیز بیشتر می‌شود. به گفته استیون هاوکینگ، توسعه هوش مصنوعی می‌تواند پایان نسل بشر باشد. افراد دیگری مانند ایلان ماسک نیز با او هم عقیده‌اند، به صورتی که ایلان ماسک در سخنرانی خود بیان کرد:

“هوش مصنوعی مرا می‌ترساند. این توانایی بسیار بیشتر از چیزی است که تقریباً هر کسی می‌داند و میزان بهبود آن به صورت تصاعدی است.”

این موضوع باعث شده تا به دنبال آشنایی هرچه بیشتر با هوش مصنوعی و خطرات آن برای جامعه و بشریت باشیم. در ادامه به برخی از این موارد می‌پردازیم.

 

خطرات هوش مصنوعی

هوش مصنوعی به صورت‌های مختلفی می‌تواند برای بشر خطرناک باشد. در اولین قدم باید ببینیم توسعه دهنده این برنامه‌ها چه کسی است و با چه هدفی آن‌ها را تولید می‌کند. گاهی اوقات برنامه هوش مصنوعی از ابتدا با اهداف مخرب تولید می‌شود. اما در برخی موارد نیز برنامه با هدف فعالیت‌های مفید تولید شده اما در راه انجام وظیفه خود، کارهای مخربی انجام می‌دهد. برخی از خطرات هوش مصنوعی در ادامه ذکر شده‌اند.

 

از دست رفتن مشاغل به دلیل اتوماسیون هوش مصنوعی

یکی از مهم‌ترین نگرانی‌های هوش مصنوعی، اتوماسیون شغلی است. این فناوری در صنایع مختلفی مانند بازاریابی، تولید و مراقبت‌های بهداشتی و انواع مختلفی از مشاغل استفاده می‌شود. با توجه به تحقیقات انجام شده از در فاصله سال‌های ۲۰۲۰ تا ۲۰۲۵ بیش از ۸۵ میلیون شغل از بین می‌رود. در این شرایط سیاه پوستان و کارگران و کارمندان لاتین تبار بیشتر در معرض خطر هستند.

استفاده از هوش مصنوعی نسبت به نیروهای انسانی بسیار ارزان‌تر و اقتصادی‌تر هستند و این نیروها با دقت و سرعت بیشتری نسبت به نیروهای انسانی کار می‌کنند. هوش مصنوعی می‌تواند میلیون‌ها شغل جدید ایجاد کند، اما بسیاری از نیروهای انسانی مهارت‌های لازم برای نقش‌های فنی را ندارند.

در این زمینه حتی شغل‌هایی که به تحصیلات آکادمیک و دانشگاهی نیاز دارند نیز در امان نخواهند بود. برخی از رشته‌ها مانند حقوق یا حسابداری، با سرعت بیشتری به تصاحب هوش مصنوعی در می‌آیند. از تأثیر قابل توجه آن در پزشکی نیز نمی‌توان چشم پوشی کرد.

سم آلتمن و دیگر مدیران OpenAI هفته گذشته در مطلبی در وبلاگ این شرکت اعلام کردند که به سازمانی بین‌المللی شبیه به آژانس انرژی اتمی نیاز است تا بتواند هوش مصنوعی را در سطح جهانی کنترل کرد. پیش‌تر نامه سرگشاده دیگری توسط سازمان غیرانتفاعی Future of Life با امضای افرادی مثل ایلان ماسک منتشر شده بود که درخواست توقف توسعه مدل‌های پیشرفته هوش مصنوعی را داشت.

 

همه فعالان هوش مصنوعی از بابت خطرات این فناوری نگرانند

تفاوت این نامه در اینجاست که تنها در یک جمله به بیان یک نگرانی عمومی درباره فناوری هوش مصنوعی پرداخته و از ورود به جزئیاتی که ممکن است بر سر آن‌ها اختلافاتی وجود داشته باشد، خودداری کرده است.

این نامه در شرایطی منتشر می‌شود که بسیاری از کارشناسان نگران پتانسیل‌های خطرناک هوش مصنوعی هستند. پیشرفت‌های اخیر در‌زمینه مدل‌های زبانی بزرگ به‌ویژه از زمان عرضه عمومی چت‌بات ChatGPT خیلی‌ها را درباره قابلیت‌های این نرم‌افزارها در نشر اطلاعات نادرست یا تهدید مشاغل نگران کرده است.

همین مسئله باعث شده بسیاری از رهبران صنعت هوش مصنوعی با یکدیگر هم‌صدا شوند و درخواست قانون‌گذاری در این حوزه را مطرح کنند. آلتمن، هاسابیس و آمودی چندی قبل با «جو بایدن»، رئیس‌جمهور و «کاملا هریس»، معاون اول رئیس‌جمهور آمریکا، دیدار و پیرامون قانون‌گذاری در این صنعت صحبت کردند. آلتمن همچنین به کنگره رفت تا درباره همین موضوع با نمایندگان ایالات‌متحده حرف بزند.

 

عدم هماهنگی میان اهداف ما و ماشین

بخشی از آنچه که انسان‌ها در ماشین‌های مجهز به هوش مصنوعی به دنبال آن بوده و برای آن ارزش قائل هستند، کارایی و اثربخشی آن‌هاست. اما، اگر اهدافی را که برای ماشین‌های هوش مصنوعی تعیین کرده‌ایم روشن و واضح نباشد، می‌تواند بسیار خطرناک باشد.

به عنوان مثال، دستور «در اسرع وقت مرا به فرودگاه برسانید» ممکن است عواقب بدی داشته باشد. این ماشین بدون توجه به قوانین جاده به دستور شما عمل کرده و این موضوع می‌تواند جان انسان را به خطر بیندازد. یک ماشین می‌تواند به طور موثر هدف خود را که شما را در سریع‌ترین زمان ممکن به فرودگاه برساند انجام دهد، اما ردی از تصادفات را پشت سر باقی گذارد.

 

سلاح‌های خودمختار

یکی از راه‌هایی که هوش مصنوعی می‌تواند باعث ایجاد خطر شود، ساخت سلاح‌های خودمختار است که برای کشتن برنامه ریزی شده‌اند. حتی ممکن است مسابقه تسلیحات هسته‌ای با یک مسابقه تسلیحاتی خودمختار ایجاد شود.

گذشته از نگرانی از این که سلاح‌های خودمختار ممکن است “ذهن خود” را به دست آورند، نگرانی قریب الوقوع‌تر خطراتی است که این سلاح‌ها ممکن است برای فرد یا دولتی داشته باشند که برای زندگی انسان ارزشی قائل نیستند. پس از ایجاد این سلاح‌ها، احتمالاً از بین بردن یا مبارزه با آن‌ها بسیار دشوار خواهد بود.

 

دستکاری اجتماعی

رسانه‌های اجتماعی از طریق الگوریتم‌های مستقل خود در بازاریابی هدف بسیار موثر عمل می‌کنند. آن‌ها می‌دانند ما کی هستیم، چه چیزی را دوست داریم و در حدس زدن آنچه فکر می‌کنیم فوق العاده خوب و قوی عمل می‌کنند. قدرت هوش مصنوعی برای دستکاری اجتماعی بسیار بالاست. هوش مصنوعی می‌تواند با گسترش تبلیغات به افرادی که از طریق الگوریتم‌ها و داده‌های شخصی شناسایی شده‌اند، آن‌ها را هدف قرار دهد و هر اطلاعاتی را که دوست دارند، در هر قالبی که قانع‌کننده‌تر باشد، چه واقعی و چه تخیلی، منتشر کند.

 

بد افزارهای هوش مصنوعی

هوش مصنوعی روز به روز در هک کردن و شکستن رمز‌ها در سیستم‌های امنیتی پیشرفت می‌کند. این موضوع به دلیل پیشرفت و تکامل الگوریتم‌های مورد استفاده در هوش مصنوعی و یادگیری ماشین است. هر بدافزاری که در این زمینه طراحی و ساخته می‌شود، روز به روز با آزمون و خطا بهتر شده و این بهتر شدن می‌تواند آن را خطرناک‌تر کند.

این بدافزارها با اهداف مختلفی طراحی می‌شوند که می‌توانند برای انسان نیز خطرناک باشد. تصور کنید بدافزاری با هدف اختلال در خودروهای خودران ایجاد شود. این بدافزار می‌تواند باعث بروز مشکل در خودرو و ایجاد تصادفات مختلف شود. هرچه استفاده از هوش مصنوعی و سیستم‌های هوشمند در زندگی بیشتر شود، احتمال بروز خطر نیز بیشتر می‌شود.

 

جمع بندی

در اصل، هوش مصنوعی ساخت ماشین‌هایی است که می‌توانند هوشمندانه فکر و عمل کنند. بیشتر برنامه‌های فعلی برای تأثیرگذاری مثبت بر بشر استفاده می‌شود، اما هر ابزار قدرتمندی را می‌توان برای اهداف مضر در زمانی که به دست افراد نادرست بیفتد استفاده کرد.

امروز، ما به هوش مصنوعی کاربردی دست یافته‌ایم که وظایف محدودی مانند تشخیص چهره، پردازش زبان طبیعی یا جستجوهای اینترنتی را انجام می‌دهد. در نهایت، کارشناسان در این زمینه برای رسیدن به هوش مصنوعی تعمیم‌یافته‌تر کار می‌کنند، جایی که سیستم‌ها می‌توانند هر کاری را که انسان‌های هوشمند می‌توانند انجام دهند، انجام دهند و به احتمال زیاد ما را در تمام آن‌ها شکست دهند و این همان جایی است که هوش مصنوعی می‌تواند خطرناک باشد.

آیا این خبر مفید بود؟
دیدگاه های ارسال شده توسط شما، پس از تایید توسط خبرگزاری موج در وب منتشر خواهد شد.

پیام هایی که حاوی تهمت و افترا باشد منتشر نخواهد شد.

پیام هایی که به غیر از زبان فارسی یا غیرمرتبط باشد منتشر نخواهد شد.

ارسال نظر

آخرین اخبار گروه

پربازدیدترین گروه