تبعیض جنسیتی در هوش مصنوعی
از منظر جامعه شناختی هوش مصنوعی نه تنها یک ابزار تکنولوژیک بلکه محصول فرهنگی پیچیده ای است که ارزشها و نابرابریهای جامعه را بازنمایی و تقویت می.کند این تکنولوژی که در ابتدا به عنوان ابزاری بیطرف در نظر گرفته میشد امروزه به عنوان ابزاری تلقی میشود که میتواند الگوهای قدرت و نابرابری را تداوم بخشد به تعبیری هوش مصنوعی به عنوان بازتاب دهنده و حتی بازتولید کننده ی روابط قدرت در جامعه عمل میکند و به تبع آن از فرهنگها و ارزشهای مسلط تاثیر می پذیرد…./
***
سمانه کوهستانی*
کانون زنان ایرانی
با ورود هوش مصنوعی به زندگی روزمره و تصمیم گیری های اجتماعی مسائل مرتبط با تبعیضهای نهادینه شده در این تکنولوژی بیش از پیش حائز اهمیت میشوند. در این بین تبعیض جنسیتی به شدت مورد توجه قرار گرفته است زیرا هوش مصنوعی به دلیل استفاده از داده های تاریخی و اجتماعی ممکن است. به طور ناخواسته نابرابریهای جنسیتی را بازتولید و تشدید کند.
برای درک چگونگی بازتولید تبعیض جنسیتی در سیستم های هوش مصنوعی ابتدا باید به ساختار اجتماعی و فرهنگی تولید این تکنولوژی ها توجه کنیم. بسیاری از الگوریتمهای هوش مصنوعی با داده هایی آموزش میبینند که به شکلی پنهان حامل کلیشه ها و نابرابری های جنسیتیاند وقتی سیستم های هوش مصنوعی از این داده ها استفاده میکنند به بازتاب این سوگیری ها در تصمیم گیریهای خود ادامه میدهند. بر این اساس هوش مصنوعی نه تنها از تبعیضهای موجود در داده های تاریخی تأثیر می پذیرد بلکه این تبعیض ها را در لایه های مختلف تصمیم گیری های اجتماعی نیز بازتولید میکند.
مصادیق تبعیض جنسیتی در هوش مصنوعی
سوگیری داده ها
داده های استفاده شده برای آموزش هوش مصنوعی غالباً از ساختارهای جامعه ای نشات میگیرند که در آنها تبعیض جنسیتی نهادینه شده وجود دارد. برای مثال اگر الگوریتم های استخدامی هوش مصنوعی با داده های مربوط به گذشته ای آموزش ببینند که در آن مردان بیشتر در پستهای مدیریتی حضور داشته اند احتمال زیادی وجود دارد که این الگوریتم ها نیز تمایل بیشتری به انتخاب مردان نشان دهند. این مسئله میتواند باعث تداوم نابرابریهای شغلی بین زنان و مردان شود.
کلیشه های جنسیتی در دستیارهای هوش مصنوعی
دستیارهای صوتی هوش مصنوعی، همچون الکسا و سیری اغلب با صدای زنانه و رفتاری مطیعانه طراحی شده اند. این ویژگیها میتواند تصویری کلیشه ای از زنان به عنوان موجودات مطیع و خدمت گزار را در اذهان عمومی تقویت .کند این کلیشه در بلندمدت میتوانند تأثیری عمیق بر رفتارها و انتظارات اجتماعی از زنان داشته باشند.
تاثیرات ناخواسته الگوریتمهای تصویری و صوتی
پژوهش ها نشان دادهاند که فناوری شناسایی چهره به طور خاص در تشخیص چهره زنان و به ویژه زنان رنگین پوست با مشکلات جدی روبرو است. این سیستم ها معمولاً برای تشخیص چهره های مردانه و سفیدپوست بهتر تنظیم شدهاند که نتیجه ای جز به حاشیه راندن و نادیده گرفتن زنان رنگین پوست در سطح جهانی ندارد این مسئله نه تنها بیانگر سوگیری نژادی و جنسیتی در هوش مصنوعی است بلکه میتواند منجر به مشکلات جدی در حقوق شهروندی و اجتماعی آنان نیز بشود.
از منظر جامعه شناختی هوش مصنوعی نه تنها یک ابزار تکنولوژیک بلکه محصول فرهنگی پیچیده ای است که ارزشها و نابرابریهای جامعه را بازنمایی و تقویت می.کند این تکنولوژی که در ابتدا به عنوان ابزاری بیطرف در نظر گرفته میشد امروزه به عنوان ابزاری تلقی میشود که میتواند الگوهای قدرت و نابرابری را تداوم بخشد به تعبیری هوش مصنوعی به عنوان بازتاب دهنده و حتی بازتولید کننده ی روابط قدرت در جامعه عمل میکند و به تبع آن از فرهنگها و ارزشهای مسلط تاثیر می پذیرد.
سخن کوتاه ،آنکه تبعیض جنسیتی در هوش مصنوعی مسئله ای چند ساحتی و پیچیده است که ریشه در ساختارهای اجتماعی و فرهنگی دارد. از دیدگاه جامعه شناختی هوش مصنوعی به عنوان یک پدیده ی فرهنگی، نه تنها بازتاب دهندهی تبعیضهای اجتماعی است بلکه میتواند آنها را در لایه های پنهان تر زندگی روزمره ما نهادینه کند مقابله با این چالش ها نیازمند تغییرات اساسی در نگرشها و راهبردهای توسعه ی تکنولوژی است و تنها با همکاری بین رشته ای و تعهد به عدالت اجتماعی میتوان امیدوار بود که هوش مصنوعی در آینده به ابزاری برای کاهش نابرابریهای اجتماعی تبدیل شود.
* سمانه کوهستانی دارای دکتری جامعه شناسی است.
۱۲ فروردین ۱۴۰۴