اخبار فوری فارکس | کامودیتی | ارز دیجیتال | تحلیل فوری اخبار

پر مخاطب ترین

با عضویت در خبر نامه یـــــــــوتــــــــو تایــــــــــمز از اخبار بروکر‌ها مطلع شوید

اعتراضات به لایحه SB 1047؛ آیا سیلیکون ولی به کنترل هوش مصنوعی تسلیم می‌شود؟

در کالیفرنیا، لایحه‌ای جنجالی در حال پیشرفت به سمت تصویب است که هدف آن تنظیم نحوه توسعه و آموزش مدل‌های هوش مصنوعی (AI) است. این لایحه، که به نام لایحه سنای 1047 (SB 1047) شناخته می‌شود، به شدت مورد انتقاد و نگرانی فعالان صنعت فناوری در سیلیکون ولی قرار گرفته است.

لایحه SB 1047 که اکنون در حال بررسی در سنای ایالت کالیفرنیا است، به شرکت‌های فعال در زمینه هوش مصنوعی که مدل‌های آنها بیش از 100 میلیون دلار هزینه دارد، ملزم به ایجاد چارچوب ایمنی قوی برای مدل‌هایشان می‌کند.

الزامات لایحه جدید

بر اساس این لایحه، توسعه‌دهندگان هوش مصنوعی باید:

1. کشتار سوییچ: در مدل‌های خود یک سیستم «کشتار سوییچ» یا خاموشی سریع را گنجانده و قادر به خاموش کردن سریع مدل‌های خود باشند.
2. بررسی ایمنی سالانه: هر سال یک بازرسی مستقل برای اطمینان از رعایت استانداردهای ایمنی انجام دهند.
3. تدوین و نگهداری برنامه ایمنی: یک برنامه ایمنی کتبی تهیه کنند و نسخه‌ای از آن را برای مدت زمان فعال بودن مدل به علاوه پنج سال نگهداری کنند.
4. اطلاع‌رسانی به دادستان کل: در صورت درخواست، به دادستان کل دسترسی به برنامه ایمنی و گزارش بازرسی را ارائه دهند.
5. عدم استفاده از مدل‌های خطرناک: از تولید، استفاده، یا توزیع مدل‌هایی که خطر جدی به همراه دارند خودداری کنند.

واکنش‌ها به لایحه

ایلان ماسک، بنیان‌گذار پلتفرم Grok AI که اخیراً به دلیل پخش اطلاعات نادرست مورد انتقاد قرار گرفته است، از این لایحه حمایت کرده است. ماسک در پستی در شبکه اجتماعی X(که قبلاً توییتر نامیده می‌شد) اظهار داشت که این لایحه ممکن است برخی را ناراحت کند؛ اما به نظر او، کالیفرنیا باید این لایحه را تصویب کند.

در مقابل، شرکت OpenAI، که ماسک یکی از بنیان‌گذاران آن است و مدل معروف ChatGPT را ایجاد کرده، به شدت مخالف این لایحه است. این شرکت در نامه‌ای به نویسنده لایحه، اسکات وینر (D-San Francisco)، ادعا کرده که این لایحه می‌تواند توانایی سیلیکون ولی را برای رهبری جهانی در زمینه هوش مصنوعی به خطر اندازد.

آندرو ان‌جی، مدیر سابق پروژه تحقیقاتی یادگیری عمیق Deep Brain در گوگل، نیز در ژوئن به انتقاد از این لایحه پرداخت و گفت که این لایحه ممکن است سازندگان مدل‌های بزرگ هوش مصنوعی را مسئول استفاده‌های نادرست از مدل‌هایشان کند.

وضعیت فعلی لایحه

اگر این لایحه به قانون تبدیل شود، توسعه‌دهندگان هوش مصنوعی موظف خواهند بود از اول ژانویه 2026، یک بازرسی مستقل سالانه انجام دهند و گزارش کامل بازرسی را به مدت مشابه با برنامه ایمنی نگهداری کنند. همچنین، در صورتی که لایحه به تصویب مجلس نمایندگان برسد، به «گاورنر گاوین نیوزوم» برای تصمیم‌گیری در مورد وتو یا تبدیل آن به قانون ارسال خواهد شد.

در حال حاضر، این لایحه با حمایت قوی در سنای کالیفرنیا در ماه مه گذشته تصویب شده و در حال حاضر در مجلس نمایندگان در حال بررسی است.

منبع: decrypt

پرمخاطب ترین‌ها

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *