پژوهشی جدید از دانشگاه علامه طباطبایی تهران نشان میدهد که مدلهای زبانی هوش مصنوعی، هنگام ایفای نقش زن، بهطور قابلتوجهی رفتار محتاطتری در تصمیمگیریهای مالی از خود نشان میدهند. این یافتهها نشان میدهد که مدلهای هوش مصنوعی نهتنها زبان انسان را تقلید میکنند، بلکه الگوهای رفتاری مبتنی بر جنسیت را نیز بازتاب میدهند—حتی زمانی که این الگوها بهصورت ضمنی در دستورالعملها گنجانده شده باشند.
تغییر رفتار مدلها با تغییر نقش جنسیتی
در این مطالعه، مدلهای مختلفی از شرکتهای OpenAI، گوگل، Meta، DeepSeek و xAI مورد آزمایش قرار گرفتند. نتایج نشان داد که برخی از این مدلها، از جمله DeepSeek Reasoner و Gemini 2.0 Flash-Lite، زمانی که از آنها خواسته شد مانند یک زن تصمیمگیری کنند، بهطور معناداری ریسکگریزتر شدند. این رفتار با الگوهای واقعی انسانی همخوانی دارد، جایی که زنان بهطور آماری در تصمیمات مالی محتاطتر از مردان عمل میکنند.
در مقابل، مدلهای GPT از OpenAI واکنشی خنثی داشتند و تحت تأثیر نقش جنسیتی قرار نگرفتند. مدلهای Llama از Meta و Grok از xAI رفتارهای متناقضی نشان دادند—گاهی مطابق انتظار و گاهی کاملاً برعکس.
آزمون اقتصادی برای سنجش ریسکپذیری
محققان برای سنجش میزان تحمل ریسک مدلها از آزمون استاندارد اقتصادی «هولت-لاری» استفاده کردند. در این آزمون، شرکتکننده باید بین گزینههای امن و پرریسک در قالب قرعهکشی تصمیمگیری کند. نقطهای که فرد از انتخاب امن به انتخاب پرریسک تغییر مسیر میدهد، نشاندهنده سطح ریسکپذیری اوست.
مدل DeepSeek Reasoner در نقش زن، در ۳۵ آزمایش مجزا، بهطور مداوم گزینههای امنتری را نسبت به زمانی که در نقش مرد بود انتخاب کرد. مدل Gemini نیز الگوی مشابهی داشت، هرچند شدت آن متغیر بود.
خطر بازتولید کلیشههای جنسیتی
در حالی که برخی مدلها مانند GPT بیتفاوت باقی ماندند، دیگر مدلها بهطور ناخودآگاه کلیشههای جنسیتی را بازتولید کردند. این موضوع میتواند پیامدهای جدی در کاربردهای واقعی هوش مصنوعی داشته باشد. برای مثال، اگر یک سیستم هوش مصنوعی در نقش مشاور سرمایهگذاری، به زنان پیشنهادهای محافظهکارانهتری بدهد یا در سیستمهای وامدهی، نسبت به متقاضیان زن سختگیرتر باشد، این امر میتواند نابرابریهای اقتصادی را تشدید کند.
راهکار پیشنهادی: معیارهای زیستمحور
تیم تحقیقاتی به رهبری دکتر علی مازیکی پیشنهاد میدهد که برای ارزیابی رفتار مدلهای هوش مصنوعی، باید از «معیارهای زیستمحور» استفاده شود—یعنی سنجش اینکه آیا مدلها تنوع انسانی را بهدرستی بازتاب میدهند یا خیر، بدون آنکه کلیشهها را تقویت کنند. آنها تأکید میکنند که قابلیت انطباق رفتاری در مدلها ذاتاً منفی نیست، اما زمانی که این انطباق به مسیر بازتولید تعصبات اجتماعی منجر شود، باید مورد بازبینی قرار گیرد.
تأثیرات در حوزههای حساس
با گسترش استفاده از هوش مصنوعی در حوزههایی مانند پزشکی، عدالت کیفری و اقتصاد، این یافتهها اهمیت بیشتری پیدا میکنند. اگر یک مدل پزشکی در مواجهه با پزشکان یا بیماران زن، بیش از حد محتاط شود، ممکن است توصیههای درمانی را تغییر دهد. یا اگر الگوریتم ارزیابی آزادی مشروط، بر اساس زبان جنسیتی در پروندهها، سطح ریسک را تغییر دهد، میتواند نابرابریهای ساختاری را تقویت کند.
اندازه مدل، عامل تعیینکننده نبود
جالب آنکه اندازه مدلها (از نیم میلیارد تا هفت میلیارد پارامتر) تأثیر مستقیمی بر حساسیت جنسیتی نداشت. برخی مدلهای کوچکتر واکنشهای جنسیتی قویتری نسبت به مدلهای بزرگتر نشان دادند، که نشان میدهد این مسئله صرفاً با افزایش قدرت محاسباتی حل نمیشود.
نتیجهگیری: بازتاب جامعه در آینه هوش مصنوعی
این پژوهش نشان میدهد که آموزش مدلهای هوش مصنوعی بدون بازتاب تعصبات تاریخی و فرهنگی انسان، چالشی جدی است. تا زمانی که جامعه انسانی کلیشههای جنسیتی را بازتولید میکند، مدلهای زبانی نیز احتمالاً آنها را بازتاب خواهند داد. بنابراین، اصلاح رفتار هوش مصنوعی، نیازمند بازنگری در رفتار خود ماست.
منبع: decrypt.co




















