این نوع تبعیض فناورانه که در سالهای اخیر توجه پژوهشگران مطالعات رسانه و مطالعات زنان را به خود جلب کرده، از اشکال سنتی تبعیض جنسیتی خطرناکتر به نظر میرسد. برخلاف گذشته که میشد تبعیضهای آشکار را شناسایی و با آنها مبارزه کرد، امروز الگوریتمها در پوشش بیطرفی فناورانه، با تحلیل رفتار کاربران، عملا نابرابریهای موجود را بازتولید میکنند، بیآنکه بتوان آنها را مستقیماً مسئول این تبعیض دانست.
تصور کنید به تازگی در یکی از شبکههای اجتماعی ثبتنام کردهاید. در فرم ثبتنام، گزینه جنسیت خود را انتخاب میکنید و از این لحظه به بعد، الگوریتمهای پلتفرم شروع به ساخت «شخصیت دیجیتال» شما میکنند. مثلا اگر خانم باشید، صفحه پیشنهادهای شما خیلی زود مملو از تبلیغات لوازم آرایشی، محصولات مراقبت پوست، و محتوای مرتبط با مد و زیبایی میشود. البته موضوع تنها به تبلیغات هدفمند محدود نمیشود. ما با سیستمی مواجهیم که با تحلیل رفتار کاربران، الگوهای موجود نابرابری را شناسایی، تقویت و بازتولید میکند. این چرخه که در تاریخ طولانی نابرابری جنسیتی ریشه دارد، امروز با قدرت الگوریتمها شتاب بیشتری گرفته است.
صافیا نوبل، پژوهشگری که سالها موتورهای جستجو را مطالعه کرده، نشان میدهد چطور یک جستجوی ساده در گوگل میتواند کلیشههای جنسیتی را تقویت کند. در کتاب «الگوریتمهای سرکوب» او توضیح میدهد که فناوریهای ظاهراً خنثی چگونه ناخواسته به تبعیض دامن میزنند. این مسئله در رسانههای اجتماعی ابعاد گستردهتری پیدا میکند. در این پلتفرمها، الگوریتمها تنها به نمایش محتوا نمیپردازند، بلکه فعالانه در شکلدهی به تجربه کاربران نقش دارند. آنها تصمیم میگیرند چه کسی چه محتوایی را ببیند، با چه کسانی ارتباط برقرار کند، و چه فرصتهایی در اختیارش قرار گیرد. این قدرت شکلدهی به تجربه کاربران، وقتی با سوگیریهای موجود در دادهها ترکیب میشود، میتواند به تشدید نابرابریهای موجود منجر شود.
مطالعات در حوزه هویت دیجیتال نشان میدهد که رسانههای اجتماعی نقش مهمی در شکلگیری خودانگاره کاربران ایفا میکنند. کاربران در تعامل با این پلتفرمها، به تدریج تصویری از خود میسازند که عمیقاً متأثر از ساختارهای الگوریتمی است. این ساختارها، با محدود کردن محتوای قابل دسترس و هدایت رفتار کاربران به سمت الگوهای از پیش تعیین شده، میتوانند به تقویت و تثبیت کلیشههای جنسیتی کمک کنند.
انتفاع اقتصادی، مسئله را پیچیدهتر هم میکند. مدل تجاری پلتفرمهای اجتماعی بر پایه جمعآوری دادهها و هدایت رفتار کاربران برای افزایش تعامل و در نتیجه درآمد تبلیغاتی بنا شده است. در این مدل، الگوریتمها تمایل دارند محتوایی را نمایش دهند که شانس بیشتری برای درگیر کردن کاربر داشته باشد. از آنجا که محتوای منطبق با کلیشههای موجود معمولاً تعامل بیشتری را برمیانگیزد، این سیستم به طور ناخواسته به تقویت همان کلیشهها میانجامد.
این شرایط خصوصا در حوزههای آموزشی و شغلی میتواند پیامدهای جدی به دنبال داشته باشد. وقتی الگوریتمها بر اساس الگوهای تاریخی تصمیم میگیرند چه محتوا یا فرصتی را به چه کسی نشان دهند، عملاً به تداوم همان الگوهای تبعیضآمیز کمک میکنند. برای مثال، اگر دادههای تاریخی نشان دهد که زنان کمتر در حوزههای فنی و مهندسی حضور داشتهاند، الگوریتمها ممکن است فرصتهای شغلی و آموزشی در این حوزهها را کمتر به کاربران زن نشان دهند.
شاید اینطور به نظر برسد که الگوریتم بر اساس رفتارهای خود کاربران محتوا را برای آنها شخصیسازی میکنند. این حرف درستی است؛ الگوریتمها علاوه بر «دادههای تاریخی» از «دادههای رفتاری» هم تغذیه میشوند. دادههای تاریخی، که محصول دههها نابرابری جنسیتی هستند، مبنای آموزش اولیه الگوریتمها را تشکیل میدهند. در ادامه اما الگوریتمها رفتار کاربران را هم به طور مداوم تحت نظر دارند. اینکه چه محتوایی را میبینند، روی چه پستهایی مکث میکنند، با چه تبلیغاتی تعامل میکنند و چه صفحاتی را دنبال میکنند.
درست است که بخشی از عملکرد الگوریتمها از رفتار خود کاربران نشات میگیرد اما واقعیت این است است که این دادههای رفتاری هم در خلأ شکل نمیگیرند. کاربران اصولا در محیطی به تعامل میپردازند که از قبل توسط همان الگوریتمها شکل گرفته است. وقتی یک کاربر زن با محتوای کلیشهای مواجه میشود و ناچار است از میان گزینههای محدود موجود دست به انتخاب بزند، رفتار او نه بازتاب یک انتخاب آزادانه، بلکه نتیجه محدودیتهای ساختاری است. با این حال، الگوریتم این رفتار را به عنوان «ترجیح» تفسیر میکند و بر اساس آن، تصمیمات آینده خود را شکل میدهد.
تغییر این وضعیت البته ممکن ولی مستلزم نگاهی چندجانبه است. از یک سو، الگوریتمها باید هوشمندتر و به کلیشههای جنسیتی حساس شوند. این یعنی بازنگری در شیوههای جمعآوری داده، طراحی الگوریتمهای جدید، و ایجاد سازوکارهای نظارتی که شفافیت را افزایش دهند. همزمان، کاربران باید بیاموزند چطور آگاهانهتر با این فناوریها تعامل کنند. درک عمیقتر از کارکرد الگوریتمها و شناخت سوگیریهای آنها، به کاربران کمک میکند در برابر محدودیتهای تحمیلی مقاومت کنند. در نهایت، پلتفرمهای اجتماعی باید مدلهای کسبوکار خود را متحول کنند. تا زمانی که درآمد این پلتفرمها به جذب توجه و تعامل وابسته است، الگوریتمها همچنان به سمت تقویت کلیشهها حرکت خواهند کرد. نیاز به مدلهایی داریم که مسئولیت اجتماعی را در اولویت قرار دهند. در کنار همه این موارد، دولتها و نهادهای قانونگذار باید چارچوبهای نظارتی مناسب ایجاد کنند، و جامعه مدنی باید نقش فعالتری در نظارت و پیگیری این مسئله داشته باشد.
با تمام این اوصاف، این را هم نباید فراموش کرد که رسانههای اجتماعی، با همه مشکلاتشان، میتوانند به نیرویی برای تغییر هم تبدیل شوند. توانایی این پلتفرمها در شکلدهی افکار عمومی و رفتار اجتماعی، اگر درست مدیریت شود، میتواند به کاهش نابرابریهای جنسیتی کمک کند. البته پیششرط این تغییر، بازنگری اساسی در طراحی، اجرا و نظارت بر این سیستمهاست.
در این میان، آنچه ضرورت دارد، بازتعریف رابطه ما با فناوری است؛ اینکه چطور میتوانیم از قدرت فناوریهای نوین برای ساخت جامعهای عادلانهتر استفاده کنیم. وقتی شبکههای اجتماعی با الگوریتمهای خود، نقشی دوگانه در مسئله نابرابری جنسیتی ایفا میکنند، این مهم است که این سازوکار دوگانه را درک و نقش خودمان در این چرخه را آگاهانه انتخاب کنیم.
*روزنامهنگار و پژوهشگر رسانه