تشخیص پست¬های گمراه کننده در شبکههای اجتماعی با کمک الگوریتمهای یادگیری ماشین
دموکراسی نیاز به کمک دارد
انتخابات ۲۰۱۶ آمریکا هنوز هم برای خیلیها هضم نشده؛ چهطور میشود که پیشبینیها و نظرسنجیها رأی به پیروزی کلینتون میدهند و در نهایت تاجری به اسم ترامپ به کاخ سفید راه پیدا میکند. از همان ۲۰۱۶ تاکنون بحثهایی بر سر دخالت در انتخابات از سوی دیگر کشورها از طریق شبکههای اجتماعی و البته استفاده ستاد انتخاباتی ترامپ از ابزار شبکههای اجتماعی و بهویژه فیسبوک برای تغییر نظر مردم آمریکا شکل گرفته است. در این صفحه ترجمه گزارشی از گاردین را درباره استفاده از هوش مصنوعی برای و تشخیص و مقابله با پستهای گمراهکننده در شبکههای اجتماعی آورده شده که به کارهای تحقیقاتی میثم علیزاده اشاره میکند. گفتوگوی روزنامه با علیزاده هم در اینجا انتظارتان را میکشند.
کمپینهای گمراهکننده خارجی در شبکههای اجتماعی را میتوان به راحتی با نگاه به سرنخهایی شامل زمانبندی آنها، طول پستها و همچنین URLهایی که هر کدام دارند تشخیص داد.
از انتخابات ۲۰۱۶ آمریکا تا برگزیت و همچنین نمونههای بسیاری از اتفاقات سیاسی که طی همین سالها رخ داده، به زعم بسیاری همگی مورد هجوم بعضی از این فعالیتهای گمراهکننده خارجی در شبکههای اجتماعی قرار گرفته است؛ از جمله شبکههای پرطرفداری مثل فیسبوک، توییتر و ردیت.
حالا محققان یک سیستم خودکار یادگیری ماشین (نوعی از هوش مصنوعی) را ابداع کردهاند که میتواند این نوع پستها را بر اساس محتوایشان تشخیص دهد.
دکتر میثم علیزاده، یکی از محققان پروژه به ما میگوید: «ما میتوانیم با استفاده از یادگیری ماشین به صورت خودکار محتوای پستهای مزاحم (Troll) را تشخیص داده و بدون دخالت انسان یک عملیات اطلاعاتی آنلاین را دنبال کنیم.» او اینطور میگوید که روش آنها صرفا پیدا کردن باتها نیست، چرا که اکثر اینگونه پستهای منحرفکننده از سوی انسانها ارسال میشود. مقدار بسیار زیاد پستهای منحرفکننده در اینگونه کمپینهای مجازی نشاندهنده این امر است که آنها از قالبهای استاندارد و روشهای معمول بهره میبرند.
این تیم گزارشی را در مجله «advance science» منتشر کرده که نشاندهنده کارکرد این سیستم در رابطه با پستهای اینگونه کمپینهاست؛ کمپینهایی از طرف چین، روسیه و ونزوئلا که علیه ایالات متحده سازماندهی شده بودند. توجه این تیم تحقیقاتی روی پستهای مزاحمی که بین دسامبر ۲۰۱۵ تا دسامبر ۲۰۱۸ در توئیتر و همچنین بین جولای ۲۰۱۵ تا دسامبر ۲۰۱۶ در ردیت پست شده بودند، بوده است.
بعد از امتحان سیستم روی بخشی از دادهها، چند سوال مهم در این زمینه برای تیم محقق مطرح شد؛ آیا سیستم میتواند پستهای مزاحم را از بقیه پستها به درستی متمایز سازد؟ و یا آیا با پردازش سیستم روی اینگونه پستها، سیستم میتواند پستهایی را که از سوی کاربران مزاحم جدید در ماه بعد هم ارسال میشود، تشخیص دهد؟ نتیجه نشان داد که روش آنها درست از کار درآمده است. عموم پستهایی که از سوی سیستم علامتگذاری شده بودند، پستهایی مزاحم بودند، با این حال همه پستهای مزاحم شناسایی نشدند.
پروفسور مارتین اینز، مدیر موسسه تحقیقات امنیتی و جزایی دانشگاه کاردیف میگوید: «این یک آنالیز مهم، هیجانانگیز و بعضا خارقالعاده است. این الگوریتم یادگیری ماشین باید بتواند محتواهای مشابه با پایگاهدادههای محدود را تشخیص دهد که البته در این دادهها نشانههایی وجود دارد که به سیستم این امکان را خواهد داد ولی همانطور که سازندگان این سیستم به درستی دریافتهاند، هنوز تا رسیدن به یک سیستم ایدهآل فاصله داریم.»
تیم تحقیقاتی همچنین دریافته که عملکرد این سیستم بسته به کشوری که پشت اینگونه کمپینهای منحرفکننده قرار گرفته، متفاوت است؛ برای مثال کمپینهای چینی نسبت به همنوعان روسی خود، برای تشخیص سادهترند.
دکتر علیزاده میگوید: «در رابطه با کمپینهای ونزوئلایی عملکرد سیستم نزدیک به بینقص بود؛ با ۹۹ درصد صحت. در مورد چینیها عملکرد ما نزدیک به ۹۰ تا ۹۱ درصد است. در مورد کمپینهای روسی که از همه پیچیدهتر و تخصصیترند، عملکردمان چیزی حدود ۸۵ درصد بوده است.»
علیزاده میگوید این موضوع به این دلیل نیست که بازیگران اطلاعاتی روسیه قویترند بلکه «آنها بهتر میتوانند نقش یک کاربر سیاسی آمریکایی را بازی کنند. البته هنوز هم دلایل دیگری برای کشف کردن هست؛ برای مثال ونزوئلاییها همواره در مورد سیاست حرف میزنند اما ترولهای روسی بعضا اصلا در مورد سیاست حرف نمیزنند (مشارکت کردن در هشتگگذاریها یا به اشتراک گذاشتن لینکهای دانلود موسیقی). چرا ترولهای روسی این کار را میکنند؟ یک دلیل میتواند این باشد که آنها میخواهند مخاطب جذب کنند.»
طراحان این سیستم همچنین میگویند این سیستم میتواند نشان دهد که چگونه کمپینهای خارجی میتواند به مرور زمان تغییر تاکتیک دهد؛ برای مثال در مورد فعالیتهای روسی، استفاده از هشتگ در بین این کاربران بعد از یک دوره اوج در اواخر ۲۱۰۵ و اوایل ۲۰۱۶ کاهش پیدا کرده است.
علیزاده میگوید: «ما از همان ابتدا این ایده را داشتیم که یک فضای عمومی درست کنیم تا روزنامهنگاران و مردم بتوانند هر روز آن را چک کنند و متوجه شوند چه اتفاقی در شبکههای اجتماعی در رابطه با عملیاتهای اطلاعاتی خارجی و داخلی رخ میدهد. این قدم اول برای حفاظت از دموکراسی است و سپس ما باید این را به بقیه کشورها هم گسترش دهیم؛ کشورهایی با دموکراسیها و زبانهای متفاوت.»