تشخیص پست¬های گمراه کننده در شبکه‌های اجتماعی با کمک الگوریتم‌های یادگیری ماشین

دموکراسی نیاز به کمک دارد

انتخابات ۲۰۱۶ آمریکا هنوز هم برای خیلی‌ها هضم نشده؛ چه‌طور می‌شود که پیش‌بینی‌ها و نظرسنجی‌ها رأی به پیروزی کلینتون می‌دهند و در نهایت تاجری به اسم ترامپ به کاخ سفید راه پیدا می‌کند. از همان ۲۰۱۶ تاکنون بحث‌هایی بر سر دخالت در انتخابات از سوی دیگر کشورها از طریق شبکه‌های اجتماعی و البته استفاده ستاد انتخاباتی ترامپ از ابزار شبکه‌های اجتماعی و به‌ویژه فیس‌بوک برای تغییر نظر مردم آمریکا شکل گرفته است. در این صفحه ترجمه گزارشی از گاردین را درباره استفاده از هوش مصنوعی برای و تشخیص و مقابله با پست‌های گمراه‌کننده در شبکه‌های اجتماعی آورده شده که به کارهای تحقیقاتی میثم علیزاده اشاره می‌کند. گفت‌وگوی روزنامه با علیزاده هم در اینجا انتظارتان را می‌کشند.

 

کمپین‌­های گمراه‌­کننده خارجی در شبکه‌­های اجتماعی را می‌­توان به راحتی با نگاه به سرنخ­هایی شامل زمان‌بندی آن­ها، طول پست‌­ها و هم­چنین URLهایی که هر کدام دارند تشخیص داد.

از انتخابات ۲۰۱۶ آمریکا تا برگزیت و همچنین نمونه‌­های بسیاری از اتفاقات سیاسی که طی همین سال­‌ها رخ داده، به زعم بسیاری همگی مورد هجوم بعضی از این فعالیت‌­های گمراه‌­کننده خارجی در شبکه‌­های اجتماعی قرار گرفته است؛ از جمله شبکه‌­های پرطرفداری مثل فیس‌بوک، توییتر و ردیت.

حالا محققان یک سیستم خودکار یادگیری ماشین (نوعی از هوش مصنوعی) را ابداع کرده‌­اند که می‌­تواند این نوع پست‌­ها را بر اساس محتوایشان تشخیص دهد.

دکتر میثم علیزاده، یکی از محققان پروژه به ما می‌­گوید: «ما می‌­توانیم با استفاده از یادگیری ماشین به صورت خودکار محتوای پست‌­های مزاحم (Troll) را تشخیص داده و بدون دخالت انسان یک عملیات اطلاعاتی آنلاین را دنبال کنیم.» او این‌طور می‌گوید که روش آنها صرفا پیدا کردن بات­ها نیست، چرا که اکثر این‌گونه پست‌های منحرف‌کننده از سوی انسا‌‌‌ن‌ها ارسال می‌­شود. مقدار بسیار زیاد پست‌­های منحرف‌کننده در این‌گونه کمپین‌های مجازی نشان‌دهنده این امر است که آنها از قالب‌های استاندارد و روش­‌های معمول بهره می­برند.

این تیم گزارشی را در مجله «advance science» منتشر کرده که نشان‌­دهنده کارکرد این سیستم در رابطه با پست‌­های این‌گونه کمپین‌­هاست؛ کمپین‌هایی از طرف چین، روسیه و ونزوئلا که علیه ایالات متحده سازماندهی شده بودند. توجه این تیم تحقیقاتی روی پست­‌های مزاحمی که بین دسامبر ۲۰۱۵ تا دسامبر ۲۰۱۸ در توئیتر و همچنین بین جولای ۲۰۱۵ تا دسامبر ۲۰۱۶ در ردیت پست شده بودند، بوده است.

بعد از امتحان سیستم روی بخشی از داده‌ها، چند سوال مهم در این زمینه برای تیم محقق مطرح شد؛ آیا سیستم می­‌تواند پست­‌های مزاحم را از بقیه پست­‌ها به درستی متمایز سازد؟ و یا آیا با پردازش سیستم روی این‌گونه پست‌­ها، سیستم می­‌تواند پست‌­هایی را که از سوی کاربران مزاحم جدید در ماه بعد هم ارسال می‌شود، تشخیص دهد؟ نتیجه نشان داد که روش آنها درست از کار درآمده است. عموم پست­‌هایی که از سوی سیستم علامت‌گذاری شده بودند، پست‌هایی مزاحم بودند، با این حال همه پست‌های مزاحم شناسایی نشدند.

پروفسور مارتین اینز، مدیر موسسه تحقیقات امنیتی و جزایی دانشگاه کاردیف می‌گوید: «این یک آنالیز مهم، هیجان­‌انگیز و بعضا خارق­‌العاده است. این الگوریتم یادگیری ماشین باید بتواند محتواهای مشابه با پایگاه‌داده‌های محدود را تشخیص دهد که البته در این داده‌ها نشانه‌هایی وجود دارد که به سیستم این امکان را خواهد داد ولی همان­‌طور که سازندگان این سیستم به درستی دریافته‌اند، هنوز تا رسیدن به یک سیستم ایده‌­آل فاصله داریم.»

تیم تحقیقاتی همچنین دریافته که عملکرد این سیستم بسته به کشوری که پشت این‌گونه کمپین­‌های منحرف­‌کننده قرار گرفته، متفاوت است؛ برای مثال کمپین­‌های چینی نسبت به هم‌نوعان روسی خود، برای تشخیص ساده‌ترند.

دکتر علیزاده می­‌گوید: «در رابطه با کمپین‌­های ونزوئلایی عملکرد سیستم نزدیک به بی‌نقص بود؛ با ۹۹ درصد صحت. در مورد چینی‌ها عملکرد ما نزدیک به ۹۰ تا ۹۱ درصد است. در مورد کمپین‌های روسی که از همه پیچیده‌تر و تخصصی‌ترند، عملکردمان چیزی حدود ۸۵ درصد بوده است.»

علیزاده می‌­گوید این موضوع به این دلیل نیست که بازیگران اطلاعاتی روسیه قوی‌­ترند بلکه «آنها بهتر می‌توانند نقش یک کاربر سیاسی آمریکایی را بازی کنند. البته هنوز هم دلایل دیگری برای کشف کردن هست؛ برای مثال ونزوئلایی‌­ها همواره در مورد سیاست حرف می­‌زنند اما ترول‌­های روسی بعضا اصلا در مورد سیاست حرف نمی‌­زنند (مشارکت کردن در هشتگ‌گذاری‌ها یا به اشتراک گذاشتن لینک‌های دانلود موسیقی). چرا ترول‌­های روسی این کار را می‌­کنند؟ یک دلیل می‌­تواند این باشد که آن­ها می‌­خواهند مخاطب جذب کنند.»

طراحان این سیستم همچنین می­‌گویند این سیستم می­‌تواند نشان دهد که چگونه کمپین‌­های خارجی می‌تواند به مرور زمان تغییر تاکتیک دهد؛ برای مثال در مورد فعالیت‌­های روسی، استفاده از هشتگ در بین این کاربران بعد از یک دوره اوج در اواخر ۲۱۰۵ و اوایل ۲۰۱۶ کاهش پیدا کرده است.

علیزاده می‌­گوید: «ما از همان ابتدا این ایده را داشتیم که یک فضای عمومی درست کنیم تا روزنامه‌نگاران و مردم بتوانند هر روز آن را چک کنند و متوجه شوند چه اتفاقی در شبکه­‌های اجتماعی در رابطه با عملیات‌های اطلاعاتی خارجی و داخلی رخ می‌دهد. این قدم اول برای حفاظت از دموکراسی­ است و سپس ما باید این را به بقیه کشورها هم گسترش دهیم؛ کشورهایی با دموکراسی‌­ها و زبان‌­های متفاوت.»

 

نسخه اصلی گزارش

توسط سیدرضا احمدزاده

شاید بپسندید مطالب بیشتر از نویسنده

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.