هوش مصنوعی و چالش‌های اخلاقی آن

هوش مصنوعی در دادگاه

هنگامی که در مورد پیامدهای اجتماعی و اخلاقی پیشرفت علم و فناوری در زندگی انسان‌ها صحبت می‌شود، عده‌ای خوشبین هستند ولی عده‌ای با نگاهی بدبینانه با آن برخورد می‌کنند. این مجادله درباره علم هوش مصنوعی به‌مراتب بیشتر است. دنیای برخوردار از هوش مصنوعی در برخی مقاله‌های علمی، کتاب‌ها و فیلم‌های علمی-تخیلی، آرمانی در نظر گرفته می‌شود و در برخی دیگر، یک دنیای ضدآرمانی و ضدانسانی از آن نمایش داده می‌شود. به‌عنوان مثال در تاریخ ۱۸ مارس ۲۰۱۸ یک دوچرخه‌سوار در شهر تمپ ایالت آریزونا در خیابان با ماشینی تصادف کرده و کشته می‌شود. با اینکه شخصی پشت فرمان ماشین حضور داشت، ماشین با هوش مصنوعی کنترل می‌شد. سوالی که اینجا پیش می‌آید این است که مقصر این حادثه چه کسی است؟ هوش مصنوعی یا فردی که صاحب وسیله بوده؟ برای پاسخ‌گویی به این سوال باید چارچوب‌های اخلاقی در این زمینه تبیین شود.

از داده‌ها تا الگوریتم‌ها

«هوش مصنوعی» به سیستم‌هایی اشاره دارد که می‌توانند علائم و نشانه‌هایی را از محیط دریافت کنند و بر اساس ورودی‌های دریافتی، اقدام به حل مسأله، ارزیابی ریسک، پیش‌بینی و عمل نمایند. پیش از دوران کامپیوترهای قدرتمند و داده‌های بزرگ، چنین سیستم‌هایی به وسیله انسان‌ها برنامه‌ریزی می‌شدند و تابع قواعد ایجادشده از سوی افراد بودند، اما توسعه فناوری منجر به توسعه رویکردهای جدید شده است. یکی از این رویکردها، «یادگیریِ ماشین» است. یادگیری ماشین اکنون فعال‌ترین حوزه هوش مصنوعی است که در آن روش‌های آماری، سیستم را قادر به «یادگیری» از داده‌ها و تصمیم‌گیری می‌کند، بدون اینکه که مستقیما برنامه‌نویسی شده باشد. چنین سیستم‌هایی یک «الگوریتم»را با یک «پایگاه داده» جفت می‌کنند. دغدغه‌های اخلاقی ناشی از این پیشرفت‌ها ناظر به کاربرد هوش مصنوعی در فناوری‌هایی است که ابعاد مختلف زندگی انسان را تحت تأثیر قرار می‌دهد. استفاده از هوش مصنوعی در پهبادهای نظامی مرگبار و ریسک هوش مصنوعی در رابطه با نابودی سیستم‌های مالی جهانی مثال‌هایی از این قبیل هستند.

تبعیض از سوی ماشین‌ها علیه انسان‌ها

فرض کنید به ماشین‌ها قدرت تصمیم‌گیری در مورد مسائل روزمره داد شود. نتایج حاصل از این تغییر شما را شگفت زده خواهد کرد، زیرا سیستم‌های هوش مصنوعی می‌توانند آنچه را که از داده‌های جهان واقعی آموخته‌اند تقویت کنند، حتی مخاطرات شناخته‌شده‌ای نظیر تبعیض جنسی یا نژادی را تشدید نمایند. همچنین امکان دارد این سیستم‌ها در مواجهه با سناریوهای ناآشنا قضاوت‌های نادرستی انجام دهند. به‌عنوان مثال در سال ۲۰۱۴ شرکت آمازون برای شناسایی مهندسان نرم‌افزاری که از آنها دعوت به کار می‌کند، یک ابزار استخدامی طراحی کرد. این سیستم به سرعت دچار یکجانبه‌نگری و تبعیض علیه زنان شد، به‌طوری‌که شرکت آمازون در سال ۲۰۱۷ آن را متوقف کرد. در سال ۲۰۱۶ شرکت پروپابلیکا به تحلیل یک سیستم تجاری پرداخت که احتمال تخطی مجدد مجرمان را پیش‌بینی می‌کرد. این سیستم به قضات در ارائه بهتر احکام قضایی کمک می‌کرد. پس از انجام تحلیل، این نتیجه به دست آمد که سیستم مذکور علیه سیاه‌پوستان تبعیض قائل می‌شود. طی دو سال گذشته، ماشین‌های خودرانی که عملکردشان بر یادگیری از داده‌ها و قواعد طراحی‌شده مبتنی بوده است، در مواجهه با بازخوردهای حسی ناآشنا و یا ورودی‌هایی که سیستم‌ راهنما توان تفسیر آنها را ندارد، باعث تصادفات مرگبار شده‌اند.

قدرتمند ولی مبهم

هوش مصنوعی در حال تغییر است و با خودکارسازی فرایند تصمیم‌گیری، نویدبخش نتایج باکیفیت‌تر و بهبود بازدهی است. موفقیت‌های سیستم‌های بازی هوش مصنوعی در شکست قهرمان شطرنج «گری کاسپاروف» و قهرمان Go «کی جای» ابعاد کیفی هوش مصنوعی و برتری آن بر انسان در محاسباتی مثل تأثیر تصمیم‌گیری لحظه‌ای بر حرکت‌های احتمالی آینده را ثابت می‌کند. متأسفانه هوش مصنوعی در فرایند تصمیم‌گیری، شفافیت، قابلیت توصیف، قابلیت پیش‌گویی، قابلیت آموزش و قابلیت محاسبه حرکت انسانی را حذف کرده و ابهام را جایگزین آ‌نها می‌کند. منطق حرکت نه‌تنها برای بازیکنان بلکه برای خالق برنامه هم مجهول است. در چنین شرایطی وقتی هوش مصنوعی شروع به تصمیم‌گیری می‌کند، دیگر اثری از شفافیت و قابلیت پیش‌گویی دیده نمی‌شود.

فرض کنید کودکی از والدین خود برای تماشای فیلم با دوستانش اجازه بخواهد و والدین موافقت می‌کنند، یک هفته بعد کودک دیگر همان درخواست را می‌کند اما این‌بار والدین رد می‌کنند. این داستان ساده مسأله نابرابری و سلیقه‌محوری را مطرح می‌کند. برای اجتناب از اتهام سلیقه‌محوری، والدین به کودک خود توضیح می‌دهند که قبل از دریافت پول‌توجیبی باید تکالیف خود را انجام دهد. در صورتی‌ که والدین به کودک خود دلیل این کار را توضیح ندهند، احتمال شدت‌گرفتن تنش در خانواده وجود دارد. حالا فرض کنید یک سیستم هوش مصنوعی چنین نقشی را ایفا کند که از هزاران خانواده در موقعیت‌های مختلف داده جمع‌آوری کرده است. سیستم با بررسی پیامد اجازه‌دادن در خانواده‌ها می‌تواند این‌‌طور نتیجه بگیرد که یکی از بچه‌ها می‌تواند پول‌توجیبی بگیرد در حالی‌ که دیگری مجاز به دریافت پول نیست.

با این حال، سیستم هوش مصنوعی نمی‌تواند دلیل کار خود را توضیح دهد، بلکه فقط می‌تواند با وزن‌دهی به معیارهایی مثل رنگ مو، وزن، قد و دیگر مشخصات کودک بهترین تصمیم ممکن را برای خانواده‌های دیگر هم اتخاذ کند.

انسان‌های گزینشی و ماشین‌های غیرگزینشی

انسان‌ها نمی‌توانند با دقت زیاد تجربیات خود را در بازه زمانی طولانی‌مدت جست‌وجو کنند، درحالی‌‌که این کار برای ماشین بسیار ساده است. انسان‌ها معمولا معیارهایی را حذف می‌کنند که به نظر غیرمرتبط یا غیرمنطقی می‌رسند در حالی‌ که ماشین معمولا چیزی را حذف نمی‌کند. درنتیجه ماشین ممکن است تصمیم‌های غیرمرتبط باسابقه را اتخاذ کند که در مقیاس درک‌پذیر انسان قرار ندارد.

برای درک میزان ساختگی‌بودن تصمیم‌های هوش مصنوعی، باید روش تصمیم‌گیری انسان را بررسی کرد. انسان‌ها معمولا بر اساس مجموعه‌ای از قوانین آشکار یا روابط مبتنی بر پیامدگرایی تصمیم می‌گیرند. انسان‌ها در برابر اطلاعات مرتبط برای تصمیم‌گیری گزینشی عمل می‌کنند اما ماشین‌ها به‌صورت غیرگزینشی عمل می‌کنند و حتی معیارهایی را در نظر می‌گیرند که در روند تصمیم‌گیری برای انسان اهمیتی ندارند. اگر فرایندهای داده‌محور به خروجی الگوریتم‌های هوش مصنوعی وابسته باشند، تصمیم‌هایی انحرافی به بار خواهند آورد که اغلب اوقات در تضاد با ارزش‌های اخلاقی هستند.

هوش مصنوعی گذشته را می‌بیند

هوش مصنوعی می‌تواند بین تجربیات جمعی و ارزش‌های آشکار جدایی بیاندازد. تجربه‌های جمعی ایستا نیستند بلکه بر اساس تصمیم‌های مهم اجتماعی شکل می‌گیرند. تصمیم‌های اجتماعی هم بر اساس ارزش‌های اخلاقی اتخاذ می‌شوند. بنابراین آیا فرایند تصمیم‌گیری به ماشینی واگذار می‌شود که صرفا درباره گذشته به یادگیری می‌پردازد نه آینده؟ با توجه به مقیاس کاربردهای هوش مصنوعی در زمینه‌هایی مثل تشخیص پزشکی، خدمات مالی و نظارت بر کارمند، حتی تغییرات کوچک هم پیامدهای شدید خواهند داشت. از آنجا که روزبه‌روز عملکرد الگوریتم‌ها در زمینه‌ پیش‌گویی بهبود پیدا می‌کند، منطق ناظر بر چنین تصمیم‌هایی هم نفوذ‌ناپذیر خواهند شد. بر همین اساس، انسان دیدگاه جامع تصمیم‌گیری را از دست می‌دهد و تمام اصول گذشته را کنار می‌گذارد. در بعضی نمونه‌ها، این مسأله می‌تواند غیراخلاقی و غیرقانونی و حتی کوته‌بینانه باشد.

سازگاری یکی از پیش‌نیازهای لازم اخلاق و یکپارچه‌سازی است. تصمیم‌ها باید به استاندارد‌هایی بیشتر از دقت آماری وابسته باشند. قرن‌ها است که فضیلت‌های مشترکی مثل اعتماد متقابل، کاهش آسیب، برابری و عدالت خود را به‌عنوان شاخص‌های بقای هرگونه‌ سیستم استنتاجی ثابت کرده‌اند.

بدون سازگاری منطقی، سیستم‌های هوش مصنوعی از ثبات و پاسخ‌گویی محروم می‌شوند؛ دو موضوعی که عوامل اساسی برای اعتمادسازی در طبیعت به شمار می‌روند.

شاید بپسندید مطالب بیشتر از نویسنده

2 نظر

  1. ati می گوید

    ممنون از مطلب بسیارمفیدتون

    1. مرتضی یاری می گوید

      مخلصیم 🙂

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.