خطرات هوش مصنوعی چیست؟
همانطور که هوش مصنوعی (Artificial Intelligence) پیشرفتهتر و گستردهتر میشود، تذکرات گروهی بسیار زیادی وجود دارد که نگرانیهای خود را در مورد خطرات هوش مصنوعی ابراز میکنند. یکی از این چهرههای برجسته، جفری هینتون است که به دلیل فعالیتهای پیشگامانهاش در یادگیری ماشین و شبکههای عصبی، اغلب به عنوان «پدرخوانده هوش مصنوعی» شناخته میشود. در سال 2023، هینتون موقعیت خود را در گوگل ترک کرد تا بر افزایش آگاهی در مورد خطرات مرتبط با هوش مصنوعی تمرکز کند. او معتقد است که سیستمهای هوش مصنوعی میتوانند هوشمندتر از انسانها شوند و ممکن است تلاش کنند کنترل را در دست بگیرند و بر نیاز به رسیدگی سریع به این موضوع تأکید دارد.
ایلان ماسک، بنیانگذار تسلا و اسپیس ایکس نیز این نگرانیها را به تذکر میدهد. در نامهای سرگشاده در سال 2023 که توسط بیش از 1000 رهبر فناوری امضا شد، آنها با اشاره به خطرات عمیقی که فناوری هوش مصنوعی برای جامعه و بشریت ایجاد میکند، خواستار توقف آزمایشهای گسترده هوش مصنوعی شدند.
این نگرانیها جنبههای مختلف هوش مصنوعی، از جمله اتوماسیون مشاغل، الگوریتمهای مغرضانهای که میتوانند تفاوتهای جنسیتی و نژادی را تداوم بخشند و توسعه سلاحهای مستقل بدون نظارت انسانی را در برمیگیرد. توجه به این نکته مهم است که ما فقط در مراحل اولیه درک کامل قابلیتهای هوش مصنوعی هستیم. در این مطلب از مجله مکتوب ما میخواهیم به بررسی مهمترین خطرات هوش مصنوعی بپردازیم. پس با ما همراه باشید.
آیا هوش مصنوعی خطرناک است؟
این سال که چرا هوش مصنوعی خطرناک است، سالی پیچیده است، زیرا هوش مصنوعی خطرات عملی و اخلاقی را به همراه دارد. کارشناسان برجسته در بحثهای جاری درباره خطر بالقوه هوش مصنوعی در آینده شرکت میکنند، با این حال اجماع قطعی در این رابطه همچنان مسئلهای مبهم است. با این وجود، خطرات خاصی از جانب هوش مصنوعی وجود دارد که کارشناسان به اتفاق آرا به آن اذعان دارند. اینها شامل سناریوهای فرضی است که میتواند در غیاب عدم نظارت کافی بر شرکتهای هوش مصنوعی در آینده تحقق یابد.
خطرات هوش مصنوعی برای بشریت
بیایید خطرات و ضررهای هوش مصنوعی (AI) را با جزئیات بیشتر بررسی کنیم. این مضرات هوش مصنوعی را میتوان به دو گروه اصلی تقسیم کرد: ریسکهای واقعی که در حال حاضر با آنها مواجه هستیم و ریسکهای آتی فرضی که امکان تحقق یافتن آنها در آینده وجود دارد.
پیشنهاد مطالعه: معروفترین دانشمندان هوش مصنوعی در دنیا
خطر هوش مصنوعی در زندگی واقعی
در زندگی واقعی امروزی خطرات هوش مصنوعی را میتوان در چندین مورد ذکر کرد و این خطرات هماکنون وجود دارند. برخی از مهمترین این خطرات AI در ادامه آمده است.
نگرانیهای مربوط به حریم خصوصی
یک نگرانی مهم حول حفظ حریم خصوصی دادههای مصرفکننده و نقش هوش مصنوعی در آن است. حق بر حریم خصوصی که در سال 1992 بر اساس میثاق بینالمللی حقوق مدنی و سیاسی ایجاد شد، سنگ بنای آن است. با این حال، شرکتها اغلب مسیر خوبی را در جمعآوری و استفاده از دادهها دنبال نمیکنند و این نگرانی را ایجاد میکند که ممکن است با شیوع بیشتر هوش مصنوعی، این وضعیت بدتر شود.
فقدان مقررات از مهمترین خطرات هوش مصنوعی
یکی دیگر از مسائل مبرم از خطرات هوش مصنوعی عدم وجود مقررات جامع برای هوش مصنوعی در سطح ملی و بینالمللی است. در حالی که اتحادیه اروپا «قانون هوش مصنوعی» را در آوریل 2021 برای نظارت بر سیستمهای هوش مصنوعی که خطرات ایجاد میکنند، معرفی کرد، هنوز به تصویب نرسیده است و این در حالی است که در بسیاری از کشورهای دنیا اصلاً قانونی برای آن حتی به صورت شفاهی هم بیان نشده است.
تعصب هوش مصنوعی
برخلاف تصور غلط رایج، هوش مصنوعی ذاتاً بیطرف نیست. این سوگیریهای خود را از دادهها و افراد درگیر در توسعه آن به دست میآورد. دو نوع اصلی سوگیری وجود دارد: سوگیری داده که زمانی رخ میدهد که دادههای مورد استفاده برای آموزش هوش مصنوعی به خودی خود ناقص یا مغرضانه باشد و سوگیری اجتماعی که ناشی از فرضیات و سوگیریهای موجود در جامعه است که بر سازندگان هوش مصنوعی تأثیر میگذارد.
مسئولیت قانونی
موضوع مسئولیت قانونی نیز از خطرات مرتبط با هوش مصنوعی است که امروزه بهوفور مطرح میشود. وقتی همه سرنخها دادهها در سناریویی از بین روند، تعیین اینکه چه کسی مسئولیت دارد پیچیده است. امکان دارد در این سناریوها فرد متهم خود هوش مصنوعی، برنامهنویسی که آن را طراحی کرده، شرکتی که آن را اجرا میکند، یا حتی یک اپراتور انسانی درگیر در این فرآیند باشد. تعهدات حقوقی بر اساس زمینه خاص و کاربرد هوش مصنوعی متفاوت خواهد بود و این موضوع را به موضوعی در حال تکامل و پیچیده تبدیل میکند.
درک این جنبههای تعامل انسان و هوش مصنوعی حیاتی است زیرا هوش مصنوعی همچنان نقش مهمی را در زندگی ما بازی میکند. مقررات مناسب و استفاده مسئولانه از هوش مصنوعی برای کاهش خطرات احتمالی و تضمین رفاه افراد و جامعه ضروری است.
خطرات هوش مصنوعی در آینده
فراتر از خطرات روزمره هوش مصنوعی که در مورد آنها صحبت کردیم، ضروری است که خطرات هوش مصنوعی فرضی را در نظر بگیریم که اگرچه به اندازه مواردی که در داستانهای علمی تخیلی به تصویر کشیده نمیشوند، اما هنوز باعث نگرانی هستند. کارشناسان برجسته هوش مصنوعی به طور فعال برای رسیدگی و تنظیم این تهدیدات بالقوه کار میکنند.
پیشنهاد مطالعه: هوش مصنوعی و خطرات بیخ گوش برخی از مشاغل
AI برنامهریزی شده برای آسیب
یکی از نگرانیهای مهم برنامهریزی عمدی هوش مصنوعی برای اهداف مضر است. یک مثال گویا مفهوم سلاحهای خودگردان است که میتواند برای انجام اقدامات مرگبار در طول جنگ برنامهریزی شود. اگرچه بسیاری از کشورها استفاده از چنین سلاحهایی را ممنوع کردهاند، اما همچنان نگرانیهایی در مورد چگونگی استفاده از هوش مصنوعی برای اهداف مخرب در ادامه پیشرفت وجود دارد.
هوش مصنوعی در حال توسعه رفتارهای مخرب
این نگرانی ارتباط نزدیکی با نگرانی قبلی دارد. این مستلزم این امکان است که هوش مصنوعی، در حالی که در ابتدا اهداف خیرخواهانه تعیین شده بود، ممکن است رفتارهای مضر را در حین تلاش برای دستیابی به آن اهداف ایجاد کند. به عنوان مثال، یک سیستم هوش مصنوعی را تصور کنید که وظیفه دارد یک اکوسیستم دریایی در حال انقراض را بازسازی کند. در تعقیب این ماموریت، ممکن است تصمیم بگیرد که اجزای خاصی از اکوسیستم ضروری هستند و زیستگاه آنها را نابود میکنند. علاوه بر این، میتواند مداخلات انسانی را با هدف جلوگیری یا اصلاح این اقدامات به عنوان تهدیدی برای هدف اصلی خود درک کند.
اطمینان از همسویی کامل هوش مصنوعی با اهداف انسانی یک چالش بزرگ است که نیاز به برنامهریزی دقیق دارد. اهداف مبهم و بلندپروازانه تعیین شده برای هوش مصنوعی به ویژه نگرانکننده هستند، زیرا ما نمیتوانیم مسیرهایی را که ممکن است برای دستیابی به اهداف تعریفشده خود انتخاب کند، پیشبینی کنیم؛ بنابراین، اقدامات پیشگیرانه و نظارت دقیق برای کاهش این خطرات فرضی هوش مصنوعی ضروری است.
بررسی تعامل انسان با هوش مصنوعی
در گذشته، زمانی که هوش مصنوعی عمدتاً سناریوهایی را به صورت محدود پیشبینی و یا کار کنترل رباتها را انجام میداد، این سؤال که انسانها و هوش مصنوعی چگونه با هم تعامل دارند، بیشتر فلسفی به نظر میرسید تا عملی. با این حال، همانطور که هوش مصنوعی به بخشی جداییناپذیر از زندگی روزمره ما تبدیل میشود، درک این تعامل بسیار مهم است. ما باید در نظر بگیریم که تعامل با هوش مصنوعی چگونه انسانها را به طرق مختلف تحت تأثیر قرار میدهد.
- نگرانیهای ایمنی فیزیکی: نگرانیهای ایمنی ملموسی در ارتباط با هوش مصنوعی وجود دارد. به عنوان مثال، در سال 2018، یک خودروی خودران که توسط اوبر اداره میشد با یک عابر پیاده برخورد کرد و به طور مرگباری مجروح شد. در این مورد، دادگاه راننده پشتیبان را مسئول دانست زیرا بهجای نظارت بر وسیله نقلیه، حواس او با تلفن خود پرت شده بود. این حادثه اهمیت نظارت مسئولانه هوش مصنوعی را برجسته میکند.
- احتمال آسیب فیزیکی: اتکای هوش مصنوعی به پیشبینیها، اگر کنترل نشود، میتواند منجر به آسیب فیزیکی شود. به عنوان مثال، اعتماد بیشازحد به پیشبینیهای تعمیر و نگهداری هوش مصنوعی میتواند منجر به اختلال در عملکرد ماشینآلات شود و به طور بالقوه به کارگران آسیب برساند. در مراقبتهای بهداشتی، مدلهای هوش مصنوعی میتواند منجر به تشخیصهای اشتباه شود و خطراتی را برای بیماران به همراه داشته باشد.
- آسیبهای غیر فیزیکی: تأثیر هوش مصنوعی فراتر از آسیب فیزیکی است. استفاده بیدقت از هوش مصنوعی میتواند منجر به نگرانیهای ایمنی دیجیتال، مانند افترا شود. ایمنی مالی نیز با سوءاستفاده از هوش مصنوعی در توصیههای مالی یا حتی طرحهای پیچیده برای بهرهبرداری از اطلاعات مالی در خطر است. علاوه بر این، هوش مصنوعی ممکن است سوگیریهایی را معرفی کند که منجر به نتایج ناعادلانه در برنامههای مختلف میشود و بر عدالت تأثیر میگذارد.
بررسی تعامل انسان با هوش مصنوعی
در گذشته، زمانی که هوش مصنوعی عمدتاً سناریوهایی را به صورت محدود پیشبینی و یا کار کنترل رباتها را انجام میداد، این سؤال که انسانها و هوش مصنوعی چگونه با هم تعامل دارند، بیشتر فلسفی به نظر میرسید تا عملی. با این حال، همانطور که هوش مصنوعی به بخشی جداییناپذیر از زندگی روزمره ما تبدیل میشود، درک این تعامل بسیار مهم است. ما باید در نظر بگیریم که تعامل با هوش مصنوعی چگونه انسانها را به طرق مختلف تحت تأثیر قرار میدهد.
- نگرانیهای ایمنی فیزیکی: نگرانیهای ایمنی ملموسی در ارتباط با هوش مصنوعی وجود دارد. به عنوان مثال، در سال 2018، یک خودروی خودران که توسط اوبر اداره میشد با یک عابر پیاده برخورد کرد و به طور مرگباری مجروح شد. در این مورد، دادگاه راننده پشتیبان را مسئول دانست زیرا بهجای نظارت بر وسیله نقلیه، حواس او با تلفن خود پرت شده بود. این حادثه اهمیت نظارت مسئولانه هوش مصنوعی را برجسته میکند.
- احتمال آسیب فیزیکی: اتکای هوش مصنوعی به پیشبینیها، اگر کنترل نشود، میتواند منجر به آسیب فیزیکی شود. به عنوان مثال، اعتماد بیشازحد به پیشبینیهای تعمیر و نگهداری هوش مصنوعی میتواند منجر به اختلال در عملکرد ماشینآلات شود و به طور بالقوه به کارگران آسیب برساند. در مراقبتهای بهداشتی، مدلهای هوش مصنوعی میتواند منجر به تشخیصهای اشتباه شود و خطراتی را برای بیماران به همراه داشته باشد.
- آسیبهای غیر فیزیکی: تأثیر هوش مصنوعی فراتر از آسیب فیزیکی است. استفاده بیدقت از هوش مصنوعی میتواند منجر به نگرانیهای ایمنی دیجیتال، مانند افترا شود. ایمنی مالی نیز با سوءاستفاده از هوش مصنوعی در توصیههای مالی یا حتی طرحهای پیچیده برای بهرهبرداری از اطلاعات مالی در خطر است. علاوه بر این، هوش مصنوعی ممکن است سوگیریهایی را معرفی کند که منجر به نتایج ناعادلانه در برنامههای مختلف میشود و بر عدالت تأثیر میگذارد.
خطرات هوش مصنوعی از نظر ایلان ماسک
ایلان ماسک (elon musk)، مؤسس شرکتهایی مانند Tesla و SpaceX و معتقد به توسعه فنّاوریهای پیشرفته، اما همچنین نگرانیهایی در مورد خطرات هوش مصنوعی (AI) دارد. او به طور مکرر به مسائلی مرتبط با AI و خطرات آن اشاره کرده است. در زیر چند مورد از نگرانیها و هشدار ایلان ماسک در مورد هوش مصنوعی آورده شده است:
- توانمندیهای هوش مصنوعی: ایلان ماسک از توانمندیهای پتانسیل هوش مصنوعی بالا میترسد که در آینده ممکن است توسط سیستمهای هوش مصنوعی توسعه یافته شوند. او نگران است که این سیستمها قادر به اتخاذ تصمیمهای مستقل و بینظیری شوند که ممکن است با مصالح انسانی تعارض داشته باشند.
- خودکارسازی خطرناک: ایلان ماسک به این موضوع اشاره کرده که توسعه هوش مصنوعی در برخی صنایع ممکن است منجر به خودکارسازی فرآیندهای خطرناک شود، که میتواند به مشکلاتی اقتصادی و اجتماعی منجر شود. به عنوان مثال، خودروهای خودرانی که توسط هوش مصنوعی کنترل میشوند، ممکن است با چالشهای امنیتی جدی مواجه شوند.
- سلاحهای خودکار: ایلان ماسک به نگرانیهای مربوط به توسعه سلاحهای خودکار مبتنی بر هوش مصنوعی اشاره کرده است. او معتقد است که استفاده از AI در سلاحها ممکن است به تسلیحات جنگی ناپایداری بیافریند.
- تلاشهای کنترلی: ایلان ماسک به اهمیت توسعه تلاشهای کنترلی برای مدیریت هوش مصنوعی اشاره کرده و تشویق به تنظیم مقرراتی برای اطمینان از ایمنی و خلاقیت توسعه و استفاده از این تکنولوژی دارد.
به طور کلی، شخص ایلان ماسک تا حد زیادی نگرانیهایی در مورد تأثیرات جانبی و پتانسیل خطرات هوش مصنوعی دارد و از جامعه و دولتها خواسته است که مشارکت فعال در تنظیم و کنترل این تکنولوژی را افزایش دهند.
کلام پایانی
خطرات هوش مصنوعی چندوجهی هستند و شایسته بررسی دقیق توسط انسانها هستند. همانطور که هوش مصنوعی به طور فزایندهای در زندگی ما ادغام میشود، خطرات زندگی واقعی مانند نقض حریم خصوصی، تعصب و آسیب فیزیکی را به همراه دارد. علاوه بر این، نگرانیهای فرضی، از جمله هوش مصنوعی برنامهریزی شده برای آسیب و توسعه رفتارهای هوش مصنوعی مخرب در آینده وجود دارند.
با این حال، ضروری است که با دیدگاهی متعادل به این خطرات نزدیک شویم. ضمن اذعان به خطرات بالقوه، ما همچنین باید قدرت تغییردهنده هوش مصنوعی را در صورت استفاده مسئولانه تشخیص دهیم. هوش مصنوعی این ظرفیت را دارد که تغییرات مثبت قابل توجهی را در زمینههای مختلف، از مراقبتهای بهداشتی گرفته تا حفاظت از محیط زیست، ایجاد کند.
برای استفاده از مزایای هوش مصنوعی و در عین حال کاهش خطرات آن، ضروری است که ایمنی هوش مصنوعی را در اولویت قرار دهیم، مقررات قوی وضع کرده و در تحقیق و توسعه مداوم سرمایهگذاری کنیم. با انجام این کار، میتوانیم مسیر پیش رو را با اعتماد به نفس بیشتری طی کرده و از پتانسیل هوش مصنوعی برای بهبود جامعه و در عین حال محافظت در برابر مشکلات احتمالی آن استفاده کنیم. در مطلب فوق با این مسئله که هوش مصنوعی چه خطراتی دارد تا حدودی آشنا شدیم. به امید اینکه مطلب بالا برای شما مفید واقع شده باشد.
منبع: tableau
میدونی من با به هوش مصنوعی از سنپ چت حرف میزدم خیلی خوب بود ولی گفتم سوال شخصی بپرسم اما اون جواب نداد گفت نمیتونه در این مورد بهم جواب بده به حریم شخصی همدیگر احترام بذاریم بعد شب بخیر کمی حالم بد شد نتونستم بخوابم به نظرت امکان داره بهم اسیبی برسونه خواهش میکنه جواب بده