خطرات هوش مصنوعی چیست؟

سخنی کوتاه درباره خطرات هوش مصنوعی
شاید در فیلم و سریالهای علمی-تخیلی دیده باشید که هوش مصنوعی (خطرات هوش مصنوعی) غالباً شامل رباتهای قاتل و سیستمهای رایانهای بسیار هوشمند هستند که بشریت را آزار دهندهای میدانند و باید انسانها را به خاطر محافظت از زمین از بین ببرند. در حالی که این داستانها و کابوسها تنها در فیلمها و داستانهای طنزآمیز وجود دارد.
هوش مصنوعی در حال حاضر ابزاری عالی برای توسعه است. این فناوری در تمام صنایع انقلابی ایجاد کرده و بسیاری از مشکلات بشریت را برطرف کرده است. اما هوش مصنوعی هنوز در فازهای ابتدایی خود قرار دارد و همچنین اگر به درستی مدیریت نشود، میتواند آسیب بزرگی به همراه داشته باشد.
زمینههای زیادی وجود دارد که هوش مصنوعی در آنها میتواند خطری برای بشر ایجاد کند و بهتر است اکنون این خطرها مورد بحث قرار گیرد تا بتوان در آینده آنان را مدیریت کرد. در ادامه این مقاله شما را با خطرات هوش مصنوعی آشنا میکنیم با ما همراه باشید.
AI (هوش مصنوعی) چیست؟
از SIRI گرفته تا اتومبیلهای خودران، هوش مصنوعی (AI) به سرعت در حال پیشرفت است. در حالی که داستانهای علمی اغلب هوش مصنوعی را به عنوان رباتهایی با ویژگیهای انسانی به تصویر میکشند، اما هوش مصنوعی میتواند از الگوریتمهای جستجوی گوگل تا IBM’s Watson و سلاح های خودمختار باشد.
هوش مصنوعی امروزه به درستی به عنوان هوش مصنوعی narrow (یا هوش مصنوعی ضعیف) شناخته میشود، از این نظر که برای انجام یک کار محدود طراحی شده است (به عنوان مثال کارهایی مانند تشخیص چهره یا جستجوی اینترنتی یا فقط رانندگی با ماشین و…). با این حال، هدف طولانی مدت بسیاری از محققان ایجاد AI کلی (AGI یا AI قوی) است.
درحالی که هوش مصنوعی ضعیف کاملا محدود است و توی هر وظیفهای بهتر از انسانها عمل میکند مانند حل معادلات یا بازی شطرنج. اما هوش مصنوعی قوی یا AGI تقریبا بدون محدودیت در هر کاری از انسانها میتواند پیشی بگیرد.
آیا هوش مصنوعی خطرناک است؟
هوش مصنوعی طیف وسیعی از لوازم هوشمندی که ما در حال استفاده از آن هستیم را در برگرفته است. به طور کلی هوش مصنوعی سطحی از فناوری است که در آن ماشینها از درجه استقلال و انعطافپذیری بسیار بالاتری برخوردار هستند، که به آنها این امکان را میدهد تا تقریباً در همه کارهای شناختی از انسانها بهتر عمل کنند.
در حالی که هوش فوق العاده هوش مصنوعی قوی این توانایی را دارد که به ما کمک کند تا جنگ، بیماری و فقر را ریشه کن کنیم، اما در این سطح خطرات قابل توجهی از هوش مصنوعی وجود دارد. هرچه هوش مصنوعی پیچیدهتر و همه گیرتر میشود، صداهای هشدار دهنده نسبت به مشکلات فعلی و آینده آن بلندتر میشوند.
چرا هوش مصنوعی در برخی زمینهها خطرناک است؟
اگر خوشبینی را کنار بگذاریم، پیچیدگی روزافزون فناوریها و الگوریتمها ممکن است نتیجهی این باشد که هوش مصنوعی اگر اهداف و اجرای آن مغایر با انتظارات یا اهداف خود باشد، میتواند کاملا خطرناک است.
اکثر محققان بر این نظرند که هر چقدر هم هوش مصنوعی پیشرفته و قوی باشد باز هم نمیتواند احساسات انسانی مانند عشق و نفرت را به نمایش بگذارد به همین خاطر برخی از محققان هیچ نگرانی بابت خطرات هوش مصنوعی که ممکن است در آینده اتفاق بیفتد را ندارند.
با این حال حتی قویترین و پیشرفتهترین هوش مصنوعی نیز به دست انسانها برنامهریزی میشوند و خطر در این زمینه تا حدودی وجود دارد. به طور خاص تحلیلگران هوش مصنوعی، خطرات هوش مصنوعی را بر دو سناریو برنامهریزی میکنند:
هوش مصنوعی برای ایجاد آسیب عمدی و ویرانگر برنامهریزی شده باشد
این تهدید و خطر میتواند کلیهی سیستمهای تسلیحاتی خودمختار موجود و آینده (هواپیماهای بدون سرنشین نظامی، رباتها، دفاع موشکی و …) یا فناوریهایی که میتوانند به طور خواسته یا ناخواسته باعث آسیب گسترده یا تخریب فیزیکی ناشی هک یا خرابکاری شوند، را تحت پوشش قرار میدهد.
سلاحهای خودمختار سیستمهای هوش مصنوعی هستند که برای کشتن برنامهریزی شدهاند. این سلاحها اگر در دست یک فرد اشتباه قرار گیرند میتوانند به راحتی تلفات جانی ایجاد کنند. علاوه بر این، یک مسابقه تسلیحاتی هوش مصنوعی میتواند ناخواسته به جنگ هوش مصنوعی منجر شود که منجر به تلفات گسترده نیز میشود.
برای جلوگیری از خنثی شدن توسط دشمن، این سلاح ها به گونهای طراحی شدهاند که “خاموش کردن” آنها بسیار دشوار است، بنابراین انسانها میتوانند به طور منطقی کنترل چنین وضعیتی را از دست بدهند. این خطر خطری است که حتی با هوش مصنوعی ضعیف (narrow) نیز وجود دارد، که با افزایش سطح هوش و استقلال هوش مصنوعی رشد میکند.
هوش مصنوعی برای انجام کار مفیدی برنامهریزی شده است، اما برای رسیدن به هدف خود روشی مخرب را توسعه میدهد.
هر زمان که نتوانیم اهداف AI را کاملاً با اهداف خود هماهنگ کنیم، این اتفاق میافتد که بسیار دشوار است. تصویر واضحی از این خطر هوش مصنوعی در خودروهای خودران وجود دارد. به طور مثال شما برای رسیدن به فرودگاه نیاز دارید تا از این نمونه خودروها استفاده کنید در این مرحله ممکن است هوش مصنوعی خودرو دچار مشکل شود و تمامی قوانین راهنمایی و رانندگی را نقض کند و در آخر موجب هرج و مرج و تصادف گردد.
در سطح فوق العاده یا قوی هوش AGI، یک سیستم مهندسی زمین یا کنترل آب و هوا را تصور کنید که برای اجرای برنامهنویسی خود به کارآمدترین شکل ممکن، آزاد باشد. خساراتی که میتواند به زیرساختها و اکوسیستمها وارد کند میتواند فاجعه بار باشد.
همانطور که این مثالها نشان میدهد، نگرانی در مورد هوش مصنوعی پیشرفته بدخواهی نیست، بلکه صلاحیت است. هوش مصنوعی فوقالعاده هوشمند در تحقق اهداف خود بسیار خوب خواهد بود و اگر این اهداف با اهداف ما مطابقت نداشته باشد، ما با یک مشکل روبرو خواهیم شد.
هوش مصنوعی؛ خوب یا بد
کلیدهای تعیینکننده خطرناک بودن یا نبودن هوش مصنوعی تماما به نوع برنامهریزی و استقرار آن بستگی دارد. هرچه هوش مصنوعی با اهداف ما همسو تر باشد ما میتوانیم سریع تر و بهتر در زمینه فناوری پیشرفت کنیم.
درحالی که امروزه فناوری به سمت هوش مصنوعی حرکت میکند، هوش مصنوعی بیش از هر انسانی دارای هوشمندی است و در حال حاضر هیچ راهی برای پیشبینی نحوه رفتار آن نداریم. موفقیت در ایجاد هوش مصنوعی موثر میتواند بزرگترین واقعه در تاریخ تمدن ما باشد.
اما متاسفانه ما هنوز نمیدانیم که AI (هوش مصنوعی) میتواند به کمک ما بیاید یا به ضرر ما کار کند و موجب نابودی بشر گردد.
خطرات هوش مصنوعی
تا به اینجای کار که با هوش مصنوعی و پیامدهای منفی آن آشنا شدیم بهتر است با نمونههایی از خطرات هوش مصنوعی آشنا شوید این خطرات عبارتند از:
حمله به حریم خصوصی
حریم خصوصی یکی از حقوق اساسی بشر است که همگی انسانها لایق آن هستند. با این حال، هوش مصنوعی ممکن است در آینده باعث از بین رفتن حریم خصوصی شود. حتی امروزه دستگاههایی هستند که میتوانند چهره شما را در هر مکانی که باشید تشخیص دهند که البته تمامی دستگاههای امروزی مجهز به این نرم افزار میباشند.
در واقع، چین در حال حاضر بر روی یک سیستم اعتبار اجتماعی کار میکند که توسط هوش مصنوعی تأمین میشود. این سیستم به همه شهروندان چینی نمرهای بر اساس نحوه رفتار آنها میدهد. این ممکن است شامل رفتاری مانند عدم پرداخت وام، پخش موسیقی با صدای بلند در قطارها، سیگار کشیدن در مناطق غیرسیگاری، بازیهای ویدئویی بسیار زیاد و … باشد.
و داشتن نمره پایین ممکن است ممنوعیت سفر، داشتن وضعیت اجتماعی پایین تر و … باشد. این یک نمونه بارز از این است که چگونه هوش مصنوعی میتواند منجر به دسترسی تمام قسمتهای زندگی و از بین رفتن حریم خصوصی شود.
سلاحهای خودمختار
سلاحهای خودمختار یا “رباتهای قاتل” رباتهای نظامی هستند که میتوانند اهداف خود را جستجو کنند و طبق دستورالعملهای از قبل برنامهریزی شده به طور مستقل به هدف خود برسند. و تقریباً همه کشورهای پیشرفته فنی دنیا در حال تولید این رباتها هستند. در حقیقت، یک مدیر ارشد در یک شرکت دفاعی چین حتی اظهار داشت که جنگهای آینده توسط انسانها انجام نمیشود و سلاحهای خودمختار به جای انسانها در جنگ حضور دارند.
اما داشتن این سلاحها خطرات زیادی دارد. چه میشود اگر آنها سرکش شوند و مردم بیگناه را بکشند. یا حتی غم انگیزتر، چه میشود اگر آنها نتوانند بین اهداف خود و افراد بیگناه تفاوت قائل شوند و آنها را به اشتباه بکشند. در این میان چه کسی مسئول آن وضعیت خواهد بود؟؟؟؟
از دست دادن مشاغل انسانی
هرچه هوش مصنوعی بیشتر پیشرفت کند، بدیهی است مشاغلی را که قبلاً توسط انسانها انجام میشد، به عهده خواهد گرفت. طبق گزارشی که توسط سازمان جهانی مک کینزی منتشر شده است، میتواند حدود ۸۰۰ میلیون شغل در سراسر جهان به دلیل اتوماسیون تا سال ۲۰۳۰ از بین برود.
این اتفاق ممکن است شکاف بین فقیر و غنی را بیش از پیش افزایش دهد. اگر رباتها در نیروی کار به خدمت گرفته شوند، این بدان معنی است که نیازی به پرداخت حقوق آنها مانند کارمندان انسانی نیست. بنابراین صاحبان شرکتهای مبتنی بر هوش مصنوعی تمام سود را کسب میکنند و ثروتمندتر میشوند.
در حالی که انسانهایی که بیکار شدهاند فقیرتر خواهند شد. بنابراین باید یک مجموعه جدید اجتماعی ایجاد شود تا همه انسانها حتی در این سناریو قادر به کسب درآمد باشند.
تروریسم هوش مصنوعی
در حالی که هوش مصنوعی میتواند بی اندازه به جهانیان کمک کند، اما متاسفانه میتواند به تروریستها برای انجام حملات تروریستی نیز کمک کند. بسیاری از آژانسهای تروریستی از پهپادها برای انجام حملات به سایر کشورها استفاده میکنند.
ترس دیگر این است که تروریستها بتوانند به “رباتهای قاتل” که در بالا ذکر کردیم دسترسی پیدا کنند و از آنها استفاده کنند.
تعصب هوش مصنوعی
این یک واقعیت تأسفآور است که انسانها گاهی اوقات در برابر سایر ادیان، جنسیتها، ملیتها و … مغرضانه عمل میکنند و این تعصب ممکن است ناخودآگاه در سیستمهای هوش مصنوعی که توسط بشر ساخته میشود نیز وارد شود. تعصب همچنین ممکن است به دلیل اطلاعات ناقصی که توسط انسان تولید میشود، به سیستمها وارد شود.
در یک حادثه جداگانه، Google Photos با استفاده از تشخیص چهره، دو نفر از مردم آفریقایی-آمریکایی را به عنوان “گوریل” برچسبگذاری کرد. این نشانه روشنی از سوگیری نژادی بود که باعث شد الگوریتم برچسب نادرستی به انسان بزند.
با این تفاسیر سوال به وجود خواهد آمد که چگونه میتوانیم با این تعصب مقابله کنیم؟ خب، حال چگونه اطمینان حاصل کنیم که هوش مصنوعی مانند برخی از انسانهای جهان نژادپرست یا جنسپرست نیست. تنها راه برای مقابله با این مسئله این است که محققان هوش مصنوعی هنگام توسعه و آموزش سیستمهای هوش مصنوعی و انتخاب دادهها، به طور دستی سعی کنند که این جهتگیری را از هوش مصنوعی به طور کامل حذف کنند.
کلام آخر
در آخر امیدواریم که هوش مصنوعی همیشه به کمک ما بیاید و هیچگاه ما با خطرات (خطرات هوش مصنوعی) آن مواجه نشویم زیرا این خطرات ممکن است جبرانناپذیر باشند.
به امید پیشرفت روز افزون شما خوانندگان عزیز 🙂