به گزارش روشنفکر
OpenAI اخیراً گزارشی از کارکرد GPT-4o را انتشار کرده که در آن به محدودیتها و نقصهای امنیتی این مدل و نحوه رفعکردن آنها پرداخته است. این گزارش مشخص می کند که در آزمایشها، حالت صوتی پیشرفته GPT-4o بعضی اوقات ناگهانی صدای کاربر را بدون اجازه او پیروی کرده است.
در بخشی از گزارش OpenAI درمورد GPT-4o با گفتن «تشکیل صدای غیرمجاز»، این شرکت قسمتی را توضیح میدهد که در آن هوش مصنوعی ناگهانی صدای کاربر را پیروی میکند. OpenAI مینویسد: «میانه آزمایش، ما موارد نادری را مشاهده کردیم که در آن مدل ناخواسته یک خروجی تشکیل میکند که در آن صدای کاربر را همانندسازی کرده است.» در ادامه میتوانید این مکالمه را بشنوید:
همان گونه که میشنوید، وسط مکالمه مدل هوش مصنوعی با صدای بلندی میگوید: «نه» و سپس با صدای کاربر به سخن بگوییدهایش ادامه میدهد.
پیروی صدای کاربر توسط هوش مصنوعی GPT-4o
OpenAI در گزارش خود میگوید توانایی مدل هوش مصنوعی برای تشکیل صدایی همانند به دیگر افراد میتواند تبدیل صدمههایی همانند افزایش کلاهبرداری شود و جعل هویت را تسهیل کند. این چنین این توانایی امکان پذیر برای انتشار کردن اطلاعات نادرست منفعت گیری شود.
مطابق حرف های این شرکت، GPT-4o میتواند تقریباً هر نوع صدایی را که در دادههای آموزشی خود یافت میشود، ازجمله نمودهای صوتی و موسیقی را تشکیل کند؛ اگرچه OpenAI با دستورالعملهای خاصی مانع این کار میشود. بهطورکلی چتباتها دستورالعملی خاص دارند که کاربران مشاهده نمیکنند؛ برای مثال هنگامی فردی با این چتبات مکالمهای متنی را اغاز میکند، دستورالعملی به هوش مصنوعی میگوید: «شما چتبات مفیدی هستید. درمورد اعمال خشونتآمیز و غیره سخن بگویید نکنید.»
GPT-4o نیز مدل چندوجهی است اما OpenAI برای آن دستورالعملهایی تعریف میکند تا برخی کارها همانند پیروی صدای کاربران را انجام ندهد.
در گزارش OpenAI به چند مورد نادر پیروی صدای کاربر توسط هوش مصنوعی اشاره شده است. این شرکت این چنین با محدودکردن کاربر به منفعت گیری از صداهایی که OpenAI با همکاری صداپیشگان تشکیل میکند، گمان تشکیل صداهای دیگر را افت خواهد داد.
دسته بندی مطالب