برنامه نویسی و IT

خطرات هوش مصنوعی چیست؟

سخنی کوتاه درباره خطرات هوش مصنوعی

شاید در فیلم و سریال‌های علمی-تخیلی دیده باشید که هوش مصنوعی (خطرات هوش مصنوعی) غالباً شامل ربات‌های قاتل و سیستم‌های رایانه‌ای بسیار هوشمند هستند که بشریت را آزار دهنده‌ای می‌دانند و باید انسان‌ها را به خاطر محافظت از زمین از بین ببرند. در حالی که این داستان‌ها و کابوس‌ها تنها در فیلم‌ها و داستان‌های طنزآمیز وجود دارد.

هوش مصنوعی در حال حاضر ابزاری عالی برای توسعه است. این فناوری در تمام صنایع انقلابی ایجاد کرده و بسیاری از مشکلات بشریت را برطرف کرده است. اما هوش مصنوعی هنوز در فازهای ابتدایی خود قرار دارد و همچنین اگر به درستی مدیریت نشود، می‌تواند آسیب بزرگی به همراه داشته باشد.

زمینه‌های زیادی وجود دارد که هوش مصنوعی در آنها می‌تواند خطری برای بشر ایجاد کند و بهتر است اکنون این خطرها مورد بحث قرار گیرد تا بتوان در آینده آنان را مدیریت کرد. در ادامه این مقاله شما را با خطرات هوش مصنوعی آشنا می‌کنیم با ما همراه باشید.

AI (هوش مصنوعی) چیست؟

از SIRI گرفته تا اتومبیل‌های خودران، هوش مصنوعی (AI) به سرعت در حال پیشرفت است. در حالی که داستان‌های علمی اغلب هوش مصنوعی را به عنوان ربات‌هایی با ویژگی‌های انسانی به تصویر می‌کشند، اما هوش مصنوعی می‌تواند از الگوریتم‌های جستجوی گوگل تا IBM’s Watson و سلاح های خودمختار باشد.

هوش مصنوعی امروزه به درستی به عنوان هوش مصنوعی narrow (یا هوش مصنوعی ضعیف) شناخته می‌شود، از این نظر که برای انجام یک کار محدود طراحی شده است (به عنوان مثال کارهایی مانند تشخیص چهره یا جستجوی اینترنتی یا فقط رانندگی با ماشین و…). با این حال، هدف طولانی مدت بسیاری از محققان ایجاد AI کلی (AGI یا AI قوی) است.

AI (هوش مصنوعی) چیست؟

درحالی که هوش مصنوعی ضعیف کاملا محدود است و توی هر وظیفه‌ای بهتر از انسان‌ها عمل می‌کند مانند حل معادلات یا بازی شطرنج. اما هوش مصنوعی قوی یا AGI تقریبا بدون محدودیت در هر کاری از انسان‌ها می‌تواند پیشی بگیرد.

آیا هوش مصنوعی خطرناک است؟

هوش مصنوعی طیف وسیعی از لوازم هوشمندی که ما در حال استفاده از آن هستیم را در برگرفته است. به طور کلی هوش مصنوعی سطحی از فناوری است که در آن ماشین‌ها از درجه استقلال و انعطاف‌پذیری بسیار بالاتری برخوردار هستند، که به آنها این امکان را می‌دهد تا تقریباً در همه کارهای شناختی از انسان‌ها بهتر عمل کنند.

در حالی که هوش فوق العاده هوش مصنوعی قوی این توانایی را دارد که به ما کمک کند تا جنگ، بیماری و فقر را ریشه کن کنیم، اما در این سطح خطرات قابل توجهی از هوش مصنوعی وجود دارد. هرچه هوش مصنوعی پیچیده‌تر و همه گیرتر می‌شود، صداهای هشدار دهنده نسبت به مشکلات فعلی و آینده آن بلندتر می‌شوند.

 

 

چرا هوش مصنوعی در برخی زمینه‌ها خطرناک است؟

اگر خوش‌بینی را کنار بگذاریم، پیچیدگی روزافزون فناوری‌ها و الگوریتم‌ها ممکن است نتیجه‌ی این باشد که هوش مصنوعی اگر اهداف و اجرای آن مغایر با انتظارات یا اهداف خود باشد، می‌تواند کاملا خطرناک است.

اکثر محققان بر این نظرند که هر چقدر هم هوش مصنوعی پیشرفته و قوی باشد باز هم نمی‌تواند احساسات انسانی مانند عشق و نفرت را به نمایش بگذارد به همین خاطر برخی از محققان هیچ نگرانی بابت خطرات هوش مصنوعی که ممکن است در آینده اتفاق بیفتد را ندارند.

با این حال حتی قوی‌ترین و پیشرفته‌ترین هوش مصنوعی نیز به دست انسان‌ها برنامه‌ریزی می‌شوند و خطر در این زمینه تا حدودی وجود دارد. به طور خاص تحلیلگران هوش مصنوعی، خطرات هوش مصنوعی را بر دو سناریو برنامه‌ریزی می‌کنند:

هوش مصنوعی برای ایجاد آسیب عمدی و ویرانگر برنامه‌ریزی شده باشد

این تهدید و خطر می‌تواند کلیه‌ی سیستم‌های تسلیحاتی خودمختار موجود و آینده (هواپیماهای بدون سرنشین نظامی، ربات‌ها، دفاع موشکی و …) یا فناوری‌هایی که می‌توانند به طور خواسته یا ناخواسته باعث آسیب گسترده یا تخریب فیزیکی ناشی هک یا خرابکاری شوند، را تحت پوشش قرار می‌دهد.

سلاح‌های خودمختار سیستم‌های هوش مصنوعی هستند که برای کشتن برنامه‌ریزی شده‌اند. این سلاح‌ها اگر در دست یک فرد اشتباه قرار گیرند می‌توانند به راحتی تلفات جانی ایجاد کنند. علاوه بر این، یک مسابقه تسلیحاتی هوش مصنوعی می‌تواند ناخواسته به جنگ هوش مصنوعی منجر شود که منجر به تلفات گسترده نیز می‌شود.

برای جلوگیری از خنثی شدن توسط دشمن، این سلاح ها به گونه‌ای طراحی شده‌‍اند که “خاموش کردن” آنها بسیار دشوار است، بنابراین انسان‌ها می‌توانند به طور منطقی کنترل چنین وضعیتی را از دست بدهند. این خطر خطری است که حتی با هوش مصنوعی ضعیف (narrow) نیز وجود دارد، که با افزایش سطح هوش و استقلال هوش مصنوعی رشد می‌کند.

هوش مصنوعی برای انجام کار مفیدی برنامه‌ریزی شده است، اما برای رسیدن به هدف خود روشی مخرب را توسعه می‌دهد.

هر زمان که نتوانیم اهداف AI را کاملاً با اهداف خود هماهنگ کنیم، این اتفاق می‌افتد که بسیار دشوار است. تصویر واضحی از این خطر هوش مصنوعی در خودروهای خودران وجود دارد. به طور مثال شما برای رسیدن به فرودگاه نیاز دارید تا از این نمونه خودروها استفاده کنید در این مرحله ممکن است هوش مصنوعی خودرو دچار مشکل شود و تمامی قوانین راهنمایی و رانندگی را نقض کند و در آخر موجب هرج و مرج و تصادف گردد.

چرا هوش مصنوعی در برخی زمینه‌ها خطرناک است؟

در سطح فوق العاده یا قوی هوش AGI، یک سیستم مهندسی زمین یا کنترل آب و هوا را تصور کنید که برای اجرای برنامه‌نویسی خود به کارآمدترین شکل ممکن، آزاد باشد. خساراتی که می‌تواند به زیرساخت‌ها و اکوسیستم‌ها وارد کند می‌تواند فاجعه بار باشد.

همانطور که این مثال‌ها نشان می‌دهد، نگرانی در مورد هوش مصنوعی پیشرفته بدخواهی نیست، بلکه صلاحیت است. هوش مصنوعی فوق‌العاده هوشمند در تحقق اهداف خود بسیار خوب خواهد بود و اگر این اهداف با اهداف ما مطابقت نداشته باشد، ما با یک مشکل روبرو خواهیم شد.

ویدئو پییشنهادی : آموزش هوش مصنوعی برای همه
آموزش هک

 

هوش مصنوعی؛ خوب یا بد

کلیدهای تعیین‌کننده خطرناک بودن یا نبودن هوش مصنوعی تماما به نوع برنامه‌ریزی و استقرار آن بستگی دارد. هرچه هوش مصنوعی با اهداف ما همسو تر باشد ما می‌توانیم سریع تر و بهتر در زمینه فناوری پیشرفت کنیم.

درحالی که امروزه فناوری به سمت هوش مصنوعی حرکت می‌کند، هوش مصنوعی بیش از هر انسانی دارای هوشمندی است و در حال حاضر هیچ راهی برای پیش‌بینی نحوه رفتار آن نداریم. موفقیت در ایجاد هوش مصنوعی موثر می‌تواند بزرگترین واقعه در تاریخ تمدن ما باشد.

اما متاسفانه ما هنوز نمی‌دانیم که AI (هوش مصنوعی) می‌تواند به کمک ما بیاید یا به ضرر ما کار کند و موجب نابودی بشر گردد.

 

خطرات هوش مصنوعی

تا به اینجای کار که با هوش مصنوعی و پیامدهای منفی آن آشنا شدیم بهتر است با نمونه‌هایی از خطرات هوش مصنوعی آشنا شوید این خطرات عبارتند از:

حمله به حریم خصوصی

حریم خصوصی یکی از حقوق اساسی بشر است که همگی انسان‌ها لایق آن هستند. با این حال، هوش مصنوعی ممکن است در آینده باعث از بین رفتن حریم خصوصی شود. حتی امروزه دستگاه‌هایی هستند که می‌توانند چهره شما را در هر مکانی که باشید تشخیص دهند که البته تمامی دستگاه‌های امروزی مجهز به این نرم افزار می‌باشند.

در واقع، چین در حال حاضر بر روی یک سیستم اعتبار اجتماعی کار می‌کند که توسط هوش مصنوعی تأمین می‌شود. این سیستم به همه شهروندان چینی نمره‌ای بر اساس نحوه رفتار آنها می‌دهد. این ممکن است شامل رفتاری مانند عدم پرداخت وام، پخش موسیقی با صدای بلند در قطارها، سیگار کشیدن در مناطق غیرسیگاری، بازی‌های ویدئویی بسیار زیاد و … باشد.

و داشتن نمره پایین ممکن است ممنوعیت سفر، داشتن وضعیت اجتماعی پایین تر و … باشد. این یک نمونه بارز از این است که چگونه هوش مصنوعی می‌تواند منجر به دسترسی تمام قسمت‌های زندگی و از بین رفتن حریم خصوصی شود.

سلاح‌های خودمختار

سلاح‌های خودمختار یا “ربات‌های قاتل” ربات‌های نظامی هستند که می‌توانند اهداف خود را جستجو کنند و طبق دستورالعمل‌های از قبل برنامه‌ریزی شده به طور مستقل به هدف خود برسند. و تقریباً همه کشورهای پیشرفته فنی دنیا در حال تولید این ربات‌ها هستند. در حقیقت، یک مدیر ارشد در یک شرکت دفاعی چین حتی اظهار داشت که جنگ‌های آینده توسط انسان‌ها انجام نمی‌شود و سلاح‌های خودمختار به جای انسان‌ها در جنگ حضور دارند.

اما داشتن این سلاح‌ها خطرات زیادی دارد. چه می‌شود اگر آنها سرکش شوند و مردم بی‌گناه را بکشند. یا حتی غم انگیزتر، چه می‌شود اگر آنها نتوانند بین اهداف خود و افراد بی‌گناه تفاوت قائل شوند و آنها را به اشتباه بکشند. در این میان چه کسی مسئول آن وضعیت خواهد بود؟؟؟؟

 

مقاله پییشنهادی : تفاوت هوش مصنوعی با رباتیک
آموزش هک

از دست دادن مشاغل انسانی

هرچه هوش مصنوعی بیشتر پیشرفت کند، بدیهی است مشاغلی را که قبلاً توسط انسانها انجام می‌شد، به عهده خواهد گرفت. طبق گزارشی که توسط سازمان جهانی مک کینزی منتشر شده است، می‌تواند حدود ۸۰۰ میلیون شغل در سراسر جهان به دلیل اتوماسیون تا سال ۲۰۳۰ از بین برود.

این اتفاق ممکن است شکاف بین فقیر و غنی را بیش از پیش افزایش دهد. اگر ربات‌ها در نیروی کار به خدمت گرفته شوند، این بدان معنی است که نیازی به پرداخت حقوق آنها مانند کارمندان انسانی نیست. بنابراین صاحبان شرکت‌های مبتنی بر هوش مصنوعی تمام سود را کسب می‌کنند و ثروتمندتر می‌شوند.

در حالی که انسان‌هایی که بیکار شده‌اند فقیرتر خواهند شد. بنابراین باید یک مجموعه جدید اجتماعی ایجاد شود تا همه انسان‌ها حتی در این سناریو قادر به کسب درآمد باشند.

تروریسم هوش مصنوعی

در حالی که هوش مصنوعی می‌تواند بی اندازه به جهانیان کمک کند، اما متاسفانه می‌تواند به تروریست‌ها برای انجام حملات تروریستی نیز کمک کند. بسیاری از آژانس‌های تروریستی از پهپادها برای انجام حملات به سایر کشورها استفاده می‌کنند.

ترس دیگر این است که تروریست‌ها بتوانند به “ربات‌های قاتل” که در بالا ذکر کردیم دسترسی پیدا کنند و از آنها استفاده کنند.

 

تعصب هوش مصنوعی

این یک واقعیت تأسف‌آور است که انسان‌ها گاهی اوقات در برابر سایر ادیان، جنسیت‌ها، ملیت‌ها و … مغرضانه عمل می‌کنند و این تعصب ممکن است ناخودآگاه در سیستم‌های هوش مصنوعی که توسط بشر ساخته می‌شود نیز وارد شود. تعصب همچنین ممکن است به دلیل اطلاعات ناقصی که توسط انسان تولید می‌شود، به سیستم‌ها وارد شود.

در یک حادثه جداگانه، Google Photos با استفاده از تشخیص چهره، دو نفر از مردم آفریقایی-آمریکایی را به عنوان “گوریل” برچسب‌گذاری کرد. این نشانه روشنی از سوگیری نژادی بود که باعث شد الگوریتم برچسب نادرستی به انسان بزند.

تعصب هوش مصنوعی

با این تفاسیر سوال به وجود خواهد آمد که چگونه می‌توانیم با این تعصب مقابله کنیم؟ خب، حال چگونه اطمینان حاصل کنیم که هوش مصنوعی مانند برخی از انسان‌های جهان نژادپرست یا جنس‌پرست نیست. تنها راه برای مقابله با این مسئله این است که محققان هوش مصنوعی هنگام توسعه و آموزش سیستم‌های هوش مصنوعی و انتخاب داده‌ها، به طور دستی سعی کنند که این جهت‌گیری را از هوش مصنوعی به طور کامل حذف کنند.

کلام آخر

در آخر امیدواریم که هوش مصنوعی همیشه به کمک ما بیاید و هیچ‌گاه ما با خطرات (خطرات هوش مصنوعی) آن مواجه نشویم زیرا این خطرات ممکن است جبران‌ناپذیر باشند.

به امید پیشرفت روز افزون شما خوانندگان عزیز 🙂

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
یه پیشنهاد ویژه!

پرطرفدار ترین
دوره های مکتب‌خونه

15% تخفیف برای تو
close-link