بروکر‌های پیشنهادی
استار تریدر
تبلیغ
پر مخاطب ترین

با عضویت در خبر نامه یـــــــــوتــــــــو تایــــــــــمز از اخبار مطلع شوید.

هوش مصنوعی کلیشه‌های جنسیتی را بازتاب داد

پژوهشی جدید از دانشگاه علامه طباطبایی تهران نشان می‌دهد که مدل‌های زبانی هوش مصنوعی، هنگام ایفای نقش زن، به‌طور قابل‌توجهی رفتار محتاط‌تری در تصمیم‌گیری‌های مالی از خود نشان می‌دهند. این یافته‌ها نشان می‌دهد که مدل‌های هوش مصنوعی نه‌تنها زبان انسان را تقلید می‌کنند، بلکه الگوهای رفتاری مبتنی بر جنسیت را نیز بازتاب می‌دهند—حتی زمانی که این الگوها به‌صورت ضمنی در دستورالعمل‌ها گنجانده شده باشند.

تغییر رفتار مدل‌ها با تغییر نقش جنسیتی

در این مطالعه، مدل‌های مختلفی از شرکت‌های OpenAI، گوگل، Meta، DeepSeek و xAI مورد آزمایش قرار گرفتند. نتایج نشان داد که برخی از این مدل‌ها، از جمله DeepSeek Reasoner و Gemini 2.0 Flash-Lite، زمانی که از آن‌ها خواسته شد مانند یک زن تصمیم‌گیری کنند، به‌طور معناداری ریسک‌گریزتر شدند. این رفتار با الگوهای واقعی انسانی هم‌خوانی دارد، جایی که زنان به‌طور آماری در تصمیمات مالی محتاط‌تر از مردان عمل می‌کنند.

در مقابل، مدل‌های GPT از OpenAI واکنشی خنثی داشتند و تحت تأثیر نقش جنسیتی قرار نگرفتند. مدل‌های Llama از Meta و Grok از xAI رفتارهای متناقضی نشان دادند—گاهی مطابق انتظار و گاهی کاملاً برعکس.

آزمون اقتصادی برای سنجش ریسک‌پذیری

محققان برای سنجش میزان تحمل ریسک مدل‌ها از آزمون استاندارد اقتصادی «هولت-لاری» استفاده کردند. در این آزمون، شرکت‌کننده باید بین گزینه‌های امن و پرریسک در قالب قرعه‌کشی تصمیم‌گیری کند. نقطه‌ای که فرد از انتخاب امن به انتخاب پرریسک تغییر مسیر می‌دهد، نشان‌دهنده سطح ریسک‌پذیری اوست.

مدل DeepSeek Reasoner در نقش زن، در ۳۵ آزمایش مجزا، به‌طور مداوم گزینه‌های امن‌تری را نسبت به زمانی که در نقش مرد بود انتخاب کرد. مدل Gemini نیز الگوی مشابهی داشت، هرچند شدت آن متغیر بود.

خطر بازتولید کلیشه‌های جنسیتی

در حالی که برخی مدل‌ها مانند GPT بی‌تفاوت باقی ماندند، دیگر مدل‌ها به‌طور ناخودآگاه کلیشه‌های جنسیتی را بازتولید کردند. این موضوع می‌تواند پیامدهای جدی در کاربردهای واقعی هوش مصنوعی داشته باشد. برای مثال، اگر یک سیستم هوش مصنوعی در نقش مشاور سرمایه‌گذاری، به زنان پیشنهادهای محافظه‌کارانه‌تری بدهد یا در سیستم‌های وام‌دهی، نسبت به متقاضیان زن سخت‌گیرتر باشد، این امر می‌تواند نابرابری‌های اقتصادی را تشدید کند.

راهکار پیشنهادی: معیارهای زیست‌محور

تیم تحقیقاتی به رهبری دکتر علی مازیکی پیشنهاد می‌دهد که برای ارزیابی رفتار مدل‌های هوش مصنوعی، باید از «معیارهای زیست‌محور» استفاده شود—یعنی سنجش اینکه آیا مدل‌ها تنوع انسانی را به‌درستی بازتاب می‌دهند یا خیر، بدون آن‌که کلیشه‌ها را تقویت کنند. آن‌ها تأکید می‌کنند که قابلیت انطباق رفتاری در مدل‌ها ذاتاً منفی نیست، اما زمانی که این انطباق به مسیر بازتولید تعصبات اجتماعی منجر شود، باید مورد بازبینی قرار گیرد.

تأثیرات در حوزه‌های حساس

با گسترش استفاده از هوش مصنوعی در حوزه‌هایی مانند پزشکی، عدالت کیفری و اقتصاد، این یافته‌ها اهمیت بیشتری پیدا می‌کنند. اگر یک مدل پزشکی در مواجهه با پزشکان یا بیماران زن، بیش از حد محتاط شود، ممکن است توصیه‌های درمانی را تغییر دهد. یا اگر الگوریتم ارزیابی آزادی مشروط، بر اساس زبان جنسیتی در پرونده‌ها، سطح ریسک را تغییر دهد، می‌تواند نابرابری‌های ساختاری را تقویت کند.

اندازه مدل، عامل تعیین‌کننده نبود

جالب آن‌که اندازه مدل‌ها (از نیم میلیارد تا هفت میلیارد پارامتر) تأثیر مستقیمی بر حساسیت جنسیتی نداشت. برخی مدل‌های کوچک‌تر واکنش‌های جنسیتی قوی‌تری نسبت به مدل‌های بزرگ‌تر نشان دادند، که نشان می‌دهد این مسئله صرفاً با افزایش قدرت محاسباتی حل نمی‌شود.

نتیجه‌گیری: بازتاب جامعه در آینه هوش مصنوعی

این پژوهش نشان می‌دهد که آموزش مدل‌های هوش مصنوعی بدون بازتاب تعصبات تاریخی و فرهنگی انسان، چالشی جدی است. تا زمانی که جامعه انسانی کلیشه‌های جنسیتی را بازتولید می‌کند، مدل‌های زبانی نیز احتمالاً آن‌ها را بازتاب خواهند داد. بنابراین، اصلاح رفتار هوش مصنوعی، نیازمند بازنگری در رفتار خود ماست.

منبع: decrypt.co

کانال تلگرام

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پرمخاطب ترین‌ها