به گزارش روشنفکر
«جیسون کوون»، مدیر ارشد استراتژی OpenAI در نامهای با اشاره به یک لایحه ایمنی در حال بازدید در کالیفرنیا، حرف های که تنظیم مقررات هوشمصنوعی باید به دولت فدرال سپرده شود. کوون میگوید که این لایحه ایمنی میتواند شدت پیشرفت هوش مصنوعی را آهستهتر کند و علتشود تا شرکتها این ایالت را ترک کنند.
بر پایه گزارش ورج، در این نامه خطاب به سناتور ایالتی کالیفرنیا، «اسکات وینر» که قانون نوآوری ایمن برای مدلهای هوش مصنوعی مرزی موسوم به «SB 1047» را نظر کرده، نوشته شده است:
«مجموعهای از سیاستهای هوش مصنوعی تنظیمشده توسط فدرال، بهجای مجموعهای از قوانین ایالتی، نوآوری را تحکیم میکند و ایالات متحده را در مسیر رهبری گسترش استانداردهای جهانی قرار میدهد. در نتیجه، ما به دیگر آزمایشگاههای هوش مصنوعی، گسترشدهندگان، کارشناسان و اعضای هیئت کنگره کالیفرنیا در مخالفت محترمانه با SB 1047 میپیوندیم و از وجود فرصتی برای گفتن برخی از نگرانیهای مهم خود استقبال میکنیم.»
لایحه پیشنهادی کالیفرنیا برای ایمنی هوش مصنوعی
وینر و دیگر طرفداران این قانون میگویند که با SB 1047 میتوان استانداردهایی را قبل از گسترش مدلهای هوش مصنوعی قوی تشکیل کرد.
این چنین آنها میگویند که این قانون شرکتها را به انجام برخی عمل های پیشگیرانه همانند تست امنیت مدلهای قبل از استقرار ملزم میکند، در آزمایشگاههای هوشمصنوعی از افشاگران محافظت میکند، به دادستان کل کالیفرنیا این اختیار را میدهد تا در صورت صدمهرساندن به مدلهای هوش مصنوعی، عمل قانونی انجام دهد و درنهایت خواستار تشکیل یک «خوشه رایانه ابری عمومی» به نام CalCompute میشود.
وینر در جواب به نامه مدیر ارشد OpenAI، اشاره میکند که الزامات پیشنهادی برای هر شرکتی که در کالیفرنیا تجارت میکند، بدون در نظر گرفتن این نوشته که مقر آنها در این ایالت است یا نیست، اعمال میشود، به این علت استدلال نقلشده در نامه «معنی ندارد.» او میگوید:
«SB 1047 یک لایحه زیاد معقولانه است که از آزمایشگاههای هوش مصنوعی بزرگ میخواهد کاری را که قبلاً متعهد به انجام آن بودهاند، یعنی آزمایش مدلهای بزرگ خود برای خطرات امنیتی فاجعهبار را انجام بدهند.»
لایحه SB 1047 هماکنون در انتظار رأی نهایی خود است تا به دفتر فرماندار کالیفرنیا، «گاوین نیوسام» ارسال شود.
دسته بندی مطالب