افشاگری‌های کارمند سابق فیس‌بوک

آدرس غلط فیس‌بوک

فرانسیس هاوگن دانشمند علوم داده ۳۷ساله‌ای اهل آیوواست که مدرک مهندسی کامپیوتر و ارشد کسب‌وکارش را از هاروارد گرفته و ۱۵ سال تجربه کار در شرکت‌های فناوری مثل گوگل و پینترست و البته فیس‌بوک را دارد. هاوگن با حجم عظیمی از اطلاعات و تحقیقات داخلی فیس‌بوک از این شرکت خارج شد و بعدا با استناد به همین اطلاعات علیه این غول تکنولوژی شکایتی تنظیم کرد و مدعی شد تحقیقات داخلی امپراتوری زاکربرگ نشان می‌دهد فیس‌بوک باعث افزایش خشونت، پخش اطلاعات نادرست و ناآرامی‌های سیاسی شده و اینستاگرام نیز به دختران نوجوان آسیب رسانده؛ نتایجی که خود فیس‌بوک آنها را پنهان کرده است. هاوگن در گفت‌وگو با برنامه ۶۰ دقیقه بی‌بی‌سی از این تحقیقات و تجربه کاری‌اش در فیس‌بوک بیشتر گفت.

 

اسم او فرانسیس هاوگن است؛ نامی که فیس‌بوک برای فهمیدن آن از یک ماه قبل و زمانی که یک کارمند ناشناخته فیس‌بوک شکایتی را نزد مقامات فدرال تنظیم کرد، به آب و آتش زده است. طبق یکی از شکایت‌ها، ادعا شده که تحقیقات داخلی فیس‌بوک نشان می‌دهد که این شرکت باعث افزایش خشونت، پخش اطلاعات نادرست و ناآرامی‌های سیاسی شده، ولی فیس‌بوک این اطلاعات را پنهان می‌کند. یکی دیگر از شکایات اینستاگرام را به آسیب رساندن به دختران نوجوان متهم می‌کند. چیزی که شکایات هاوگن را بی‌سابقه می‌کند، میزان عظیم اطلاعات سری فیس‌بوک است که او هنگام ترک شرکت در ماه می با خود خارج کرده و این مدارک برای اولین بار از سوی Wall Street Journal منتشر شدند.

 

تجربه من در فیس‌بوک این بود که تعارض منافع زیادی بین صلاح جامعه و منافع فیس‌بوک به وجود می‌آمد و فیس‌بوک بارها و بارها منافع خود را ترجیح می‌داد تا سود بیشتری به دست بیاورد.

از آنجایی که تجربه‌ی کار در چندین شرکت و شبکه‌های اجتماعی دیگر را داشته‌ام، اتفاقات فیس‌بوک از همه‌ی موارد دیگر به مراتب بدتر است.

 

شاید اگر یک فرد دیگر بود، از شرکت استعفا می‌داد و به زندگی خود ادامه می‌داد. برای من سوال است که چرا شما چنین تصمیمی گرفتید؟

تصور کنید که شما می‌دانید در داخل فیس‌بوک چه اتفاقاتی در حال رخ دادن است و کسی هم در دنیای بیرون از آنها خبر ندارد. می‌دانستم اگر در داخل فیس‌بوک بمانم، مانند بقیه افرادی که تصمیم گرفته بودند از داخل این مشکل را درست کنند، موفق نخواهم شد .

 

در چه زمانی و چطور تصمیم گرفتید که تمام این مدارک را با خود از شرکت خارج کنید؟

در یکی از روزهای سال ۲۰۲۱، متوجه شدم که باید این کار را به صورت سیستماتیک انجام دهم و میزان اطلاعاتی که خارج می‌کنم به اندازه‌ای باشد که کسی نتواند صحت آن را انکار کند.

 او به صورت مخفیانه هزاران صفحه از نتایج تحقیقات داخلی فیس‌بوک را کپی کرد. به گفته او نتایج نشان می‌دهد که شرکت در مورد پیشرفت چشمگیری که در مقابله با خشونت، نفرت و اطلاعات غلط داشته، دروغ می‌گوید. در یکی از مطالعاتی که پیدا کرده و برای همین امسال است آمده: «با وجود این که فیس‌بوک در این حوزه بهترین در دنیاست، طبق محاسبات تنها در مقابل ۳ تا ۵ درصد از موارد مربوط به نفرت‌پراکنی و شش دهم درصد موارد خشونت و تحریک‌آمیزی موجود در فیس‌بوک عکس‌العمل داشته‌ایم.»

 

در یکی از مدارکی که منتشر کرده‌ای نوشته شده: «ما از منابع مختلفی شواهد داریم که مطالب نفرت‌آمیز، سخنرانی‌های سیاسی تفرقه‌آمیز و اطلاعات نادرستی که در فیس‌بوک و خانواده اپلیکیشن‌های آن به اشتراک گذاشته می‌شود، بر جوامع انسانی در نقاط مختلف دنیا اثرگذار هستند.»

وقتی در فضایی زندگی می‌کنیم که پر از محتوا‌هایی خشمگین، نفرت‌آمیز و تفرقه‌آمیز است، اعتماد و ایمان اعضای جامعه به یکدیگر و هم‌دردی میان آنها از بین می‌رود. نسخه‌ای از فیس‌بوک که امروزه در حال نفس کشیدن است، در حال از هم پاشیدن جامعه ما و ایجاد خشونت‌های قومیتی در جای جای جهان است؛ خشونت‌های قومیتی مانند میانمار در سال ۲۰۱۸، زمانی که نیروهای نظامی از فیس‌بوک برای تسهیل نسل‌کشی استفاده کردند.

فرانسیس در سال ۲۰۱۹ به استخدام فیس‌بوک درآمد. او می‌گوید تنها به شرطی این کار را قبول کرد که بتواند علیه نشر اطلاعات نادرست تلاش کند، چون خودش یکی از دوستانش را به خاطر تئوری‌های توطئه آنلاین از دست داده بود.

من هیچ‌گاه نمی‌خواستم دیگران هم دردی که من تحمل کرده بودم را متحمل شوند. تجربه به من نشان داده بود که اطمینان از کیفیت اطلاعات منتشرشده چه اهمیت بالایی دارد.

در دفتر مرکزی فیس‌بوک، او به کار در بخش یکپارچگی مدنی(Civic Integrity) ملحق شده بود که روی خطراتی مانند اطلاعات نادرست که برای انتخابات وجود داشت کار می‌کرد، ولی بعد از انتخابات اخیر یک اتفاق جدید افتاد.

 به ما گفته شد که مشکلات مربوط به یکپارچگی مدنی را حل کرده‌ایم، به این معنی که از انتخابات گذشتیم و شورشی رخ نداد، پس می‌توانیم این بخش را تعطیل کنیم. چند ماه بعدش شورش در پایتخت را داشتیم. همان موقعی که بخش یکپارچگی مدنی را تعطیل کردند، به این نتیجه رسیدم که آنها تمایلی به تلاش برای جلوگیری از خطراتی که فیس‌بوک ایجاد می‌کند ندارند.

فیس‌بوک ادعا می‌کند که وظایف بخش یکپارچگی مدنی بعد از انحلال آن به دیگر واحدها سپرده شد. هاوگن می‌گوید ریشه مشکلات فیس‌بوک در تغییری‌ست که آنها در سال ۲۰۱۸ در الگوریتم‌های مربوط به فید فیس‌بوک ایجاد کردند.

قضیه این است که شما گوشی خود را دارید. در حالت عادی احتمالا اگر تنها پنج دقیقه را صرف نگاه به گوشی خود کنید، تنها صد عدد محتوا ببینید، ولی فیس‌بوک هزاران مطلب دارد که می‌تواند آنها را به شما نشان بدهد.

طرز کار الگوریتم بدین گونه است که مواردی که قبلا با آنها کنش بیشتری داشته‌اید را شناسایی می‌کند و موارد بیشتری از آن نوع را به شما نمایش می‌دهد.

 یکی از عواقب این الگوریتم این است که محتوایی را برای نشان دادن انتخاب می‌کند که دیگران بیشترین کنش را با آن دارند و عکس‌العمل بیشتری به آن نشان می‌دهند. این در حالی‌ست که تحقیقات خود فیس‌بوک نشان می‌دهد که محتواهای نفرت‌آمیز و تفرقه‌افکن ساده‌تر از دیگر موارد احساسات مردم را تحریک می‌کند، به خشم آوردن مردم ساده‌تر است تا تحریک آن‌ها به عواطف دیگر.

 

اطلاعات نادرست و محتوای خشمگین مردم را بیشتر تحریک می‌کند و آنها را در داخل پلتفرم حفظ می‌کند.

بله، این‌طور است. فیس‌بوک فهمیده که اگر آنها الگوریتم خود را عوض کنند تا مردم محیط سالم‌تری داشته باشند، مردم زمان کمتری را در فیس‌بوک سپری خواهند کرد و روی تبلیغات کمتری کلیک خواهند کرد و در نتیجه فیس‌بوک درآمد کمتری خواهد داشت.

به گفته هاوگن، فیس‌بوک از خطری که در کمین انتخابات ۲۰۲۰ بود، آگاهی داشت. به همین خاطر هنگام انتخابات برای کاهش  اطلاعات نادرست سیستم‌های ایمنی خود را فعال کرد، ولی بیشتر آن تغییرات موقت بود.

به محض این که انتخابات به پایان رسید، آنها همان سیستم‌ها را غیرفعال کردند و تنظیمات را به حالت قبل از انتخابات برگرداندند و دوباره رشد مالی خود را بر امنیت ترجیح دادند. و این برای من یعنی خیانت به دموکراسی.

فیس‌بوک می‌گوید برخی از سیستم‌های ایمنی بعد از انتخابات سر جای خود باقی ماندند، ولی بعد از انتخابات، فیس‌بوک از سوی برخی‌ها برای برنامه‌ریزی شورش ششم ژانویه در پایتخت استفاده شد. دادستان‌ها از برخی پست‌های فیس‌بوکی به عنوان مدرک استفاده می‌کنند، عکس‌هایی از شبه‌نظامیان تادندان‌مسلح با کپشن‌هایی مانند «با گلوله یا رأی، جمهوریت را برمی‌گردانیم». این تندروها از پلتفرم‌های زیادی استفاده کردند، ولی فیس‌بوک اصلی‌ترین ابزار آنها بود.

بعد از این حمله، کارکنان فیس‌بوک در یک پیام‌رسان ارتباطی داخلی خشم خود را ابراز کردند که هاوگن برخی از آن موارد را منتشر کرده. یکی از این پیام‌ها می‌گفت: «آیا بعد از این همه سال نفهمیده‌ایم که در این موارد چگونه باید بدون ایجاد خشونت مسئله را مدیریت کنیم؟» وقتی دنبال نظرات مثبت‌تری بودیم، موارد این‌چنینی را پیدا کردیم: «به نظرم تیم مدیریت روی داده‌ها و حقایق چشم‌پوشی نمی‌کند.» ولی این جمله هم چنین پاسخ‌هایی را در پی داشت که: «به فیس‌بوک خوش آمدی!. می‌بینم که تازه سه ماه است اینجایی. ما سال‌هاست که لاپوشانی‌های رهبران این شرکت را تماشا کرده‌ایم.» «من دیگر نمی‌توانم برای شرکتی کار کنم که دست روی دست گذاشته و برای کاهش اثرات منفی پلتفرمش هیچ کاری نمی‌کند.»

 

پس فیس‌بوک بدترین جنبه‌های انسان‌ها را تقویت می‌کند.

یکی از همان عواقب ناخواسته است، مگر نه؟ کسی در فیس‌بوک بدجنس و شیطانی نیست، ولی انگیزه‌ها با هم تداخل دارد. وقتی که شما محتوای بیشتری مصرف می‌کنید، فیس‌بوک درآمد بیشتری دارد. مردم دوست دارند با چیز‌هایی سروکار داشته باشند که باعث برانگیختن عکس‌العمل احساسی می‌شوند. و آنها هرچه با خشم بیشتری روبه‌رو شوند، تعامل بیشتری خواهند داشت و محتوای بیشتری مصرف خواهند کرد.

 همین مسئله موجب تنظیم شکایتی از سوی گروه‌های بزرگ سیاسی در اروپا علیه فیس‌بوک شد. بر اساس یک گزارش داخلی از سال ۲۰۱۹ که هاوگن منتشر کرده «این گروه‌ها عمیقا باور دارند که تغییرات الگوریتم‌ فیس‌بوک باعث شده تا آنها در ارتباطات خود با مردم در این پلتفرم به انحراف کشیده شوند و این مسئله آنها را به سوی مواضع سیاسی تندتر سوق داده است».

 

حرف احزاب سیاسی اروپا به فیس‌بوک این بود که الگوریتمی که شما نوشته‌اید باعث شده روش ما برای اداره کشورهایمان عوض شود.

بله. درواقع این الگوریتم آنها را مجبور می‌کرد مواضعی بگیرند که دوست نداشتند و می‌دانستند که برای جامعه مضر است، ولی می‌دانستند که اگر این موضع‌ها را نداشته باشند، در شبکه‌های اجتماعی پیروز نخواهند شد.

 به گفته او شواهد این آسیب‌ها در اینستاگرام هم دیده می‌شود.

 

یکی دیگر از تحقیقات داخلی فیس‌بوک که شما منتشر کردید به آسیبی اشاره می‌کند که اینستاگرام به دختران نوجوان می‌رساند. یک تحقیق داخلی نشان می‌دهد ۱۳.۵ درصد از دختران نوجوان می‌گویند که اینستاگرام باعث شدیدتر شدن افکار خودکشی در آنها می‌شود و ۱۷ درصد از دختران می‌گویند که اینستاگرام اختلالات‌ تغذیه را شدیدتر می‌کند.

و نکته ناراحت‌کننده این است که خود تحقیقات فیس‌بوک می‌گوید که وقتی زنان جوان شروع به مصرف این محتواها می‌کنند و مشکلات تغذیه آنها تشدید می‌شود، بیشتر و بیشتر افسرده می‌شوند. و همین باعث می‌شود که بیشتر از اپلیکیشن استفاده کنند. و این‌گونه آنها در این چرخه بازخورد گیر می‌کنند که بیشتر و بیشتر از بدن‌های خود متنفر می‌شوند. تحقیقات فیس‌بوک نشان می‌دهد که اینستاگرام نه فقط خطرناک است و به نوجوانان آسیب می‌رساند، بلکه به‌طور واضح بدتر از دیگر فرم‌های شبکه‌های اجتماعی این‌کار را انجام می‌دهد.

هفته پیش فیس‌بوک اعلام کرد که ایجاد یک اینستاگرام برای کودکان را به تعویق انداخته است.

وکلای هاوگن ماه پیش هشت شکایت را به کمیسیون بورس و اوراق بهادار آمریکا یا SEC ارائه کردند که بر اجرای قوانین بازارهای مالی نظارت می‌کند. این شکایات تحقیقات داخلی فاش‌شده را با چهره عمومی شرکت و مخصوصا مدیرعامل آن مارک زاکربرگ مقایسه می‌کند که مارس سال قبل از راه دور در کنگره شهادت داد: «ما تمام محتوایی که ممکن بود منجر به آسیب به انسان‌ها در دنیای واقعی شود را حذف کردیم. ما یک برنامه مستقل برای راستی‌آزمایی محتواها ساخته‌ایم که بی‌سابقه است. گرچه این سیستم بی‌نقص نیست، ولی بهترین روشی است که برای رسیدگی به مشکل اطلاعات نادرستی که در راستای ارزش‌های کشور ما نیستند پیدا کرده‌ایم.

یکی از وکیلان فرانسیس هاوگن شخصی‌ست به نام جان تای. او موسس یک گروه حقوقی در واشنگتن به نام Whistleblower Aid‌ است.

 

هدف حقوقی شما از ارائه شکایت به SEC‌ چیست؟ به نظر شما چه قوانینی نقض شده‌اند؟

جان تای: فیس‌بوک به عنوان یک شرکت سهامی عام، حق ندارد به سهام‌دارن خود دروغ بگوید یا حتی اطلاعات را از آنها مخفی کند. به همین خاطر SEC به طور منظم اقدامات اجرایی را با ادعای اینکه شرکت‌هایی مانند فیس‌بوک در حال حذف و تحریف اطلاعاتی هستند که ممکن است تأثیر منفی بر سهام‌داران داشته باشد انجام می‌دهد.

 

ممکن است فیس‌بوک فرانسیس را به دزدیدن اسناد داخلی شرکت محکوم کند.

جان تای: قانون داد-فرانک که ده سال پیش تصویب شد، منجر به تأسیس اداره‌ای برای افشاگران در داخل SEC شد. یکی از مفاد این قوانین این است که هیچ شرکتی نمی‌تواند کارکنانش را از ارتباط با SEC و به اشتراک گذاشتن اطلاعات داخلی شرکت با آن‌ منع کند.

فرانسیس: من با مارک هم‌دلی می‌کنم. مارک هیچ‌گاه نمی‌خواست پلتفرمی برای گسترش نفرت درست کند، ولی او اجازه داده تصمیماتی گرفته شوند که اثرات جانبی آنها این بوده که محتواهای نفرت‌آمیز و تفرقه‌افکن بیشتر پخش شوند و افراد بیشتری آنها را ببینند.

فیس‌بوک درخواست ما برای یک مصاحبه را رد کرد. ولی در یک بیانیه که برای برنامه شصت دقیقه فرستاد گفت: «هر روز تیم‌های ما باید بین حق میلیارد‌ها انسان برای اظهارنظر آزادانه خود و نیاز به داشتن پلتفرمی سالم و مثبت تعادل برقرار کنند. ما همواره در تلاش هستیم تا بهبود‌های اساسی برای جلوگیری از پخش شدن اطلاعات نادرست و محتواهای آزاردهنده بدهیم. این حرف که ما پخش محتوای آسیب‌رساننده را تشویق می‌کنیم و هیچ کاری نمی‌کنیم درست نیست.”

اگر پژوهشی توانسته بود یک راه‌حل دقیق برای این مشکلات پیچیده پیدا کند، صنایع فناوری، دولت و جامعه تا الآن این مشکلات را حل کرده بودند.

فیس‌بوک یک میلیارد دلار ارزش دارد. این شرکت که تنها ۱۷ سال از تأسیس آن می‌گذرد، بیش از ۲.۸ میلیارد نفر کاربر دارد که شصت درصد کل افرادی که در کره زمین از اینترنت استفاده می‌کنند را شامل می‌شود.

فیس‌بوک بارها و بارها نشان داده که نمی‌تواند به تنهایی این مشکلات را حل کند و هر بار سود خود را به امنیت عمومی ترجیح داده است. فیس‌بوک هزینه سود خود را با امنیت ما پرداخت می‌کند. من امیدوارم که حرکت من تأثیر بزرگی در جهان داشته باشد تا دولت‌ها انگیزه کافی برای ایجاد قوانین کافی و لازم به دست بیاورند. این امید من است.

 

لینک برنامه شصت دقیقه BBC

توسط سجاد بهنام

شاید بپسندید مطالب بیشتر از نویسنده

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.