به گزارش روشنفکر
با نزدیکشدن به انتخابات ۲۰۲۴ آمریکا، حساسیت قانونگذاران درمورد انتشار کردن دیپفیکهای تصویری و صوتی بیشازپیش شده است. اکنون OpenAI ابزاری را انتشار میکند که میتواند محتوای ایجادشده توسط هوش مصنوعی مولد DALL-E را شناسایی کند.
بر پایه گزارش نیویورک تایمز، OpenAI ابزار تشخیص دیپفیک تازه خود را در اختیار گروه کوچکی از محققان حوزه اطلاعات جعلی قرار داده است تا بتوانند این ابزار را در موقعیتهای واقعی آزمایش کنند و آن را بهبود ببخشند. این چنین OpenAI حرف های است که این ابزار میتواند ۹۸.۸ درصد از تصاویر ایجادشده توسط DALL-E 3 (آخرین نسخه هوش مصنوعی مولد عکس این شرکت) را به درستی شناسایی کند.
ابزار OpenAI برای شناسایی دیپفیک
OpenAI میگوید اگرچه ابزار تازه آن میتواند درصد بالایی از تصاویر ایجادشده توسط DALL-E 3 را تشخیص دهد، اما این ابزار برای شناسایی تصاویر تولیدشده توسط دیگر هوش مصنوعیهای محبوب همانند میدجرنی و Stability طراحی نشده است.
بهطورکلی، مبارزه با اطلاعات جعلی و دیپفیکها به سادگی قابل انجام نیست و به همین علت شرکتهای بزرگ فناوری باید راه حلهای مختلفی را بازدید کنند. اکنون غولهای فناوری همانند گوگل، متا و OpenAI به کمیتهای موسم به «ائتلاف برای منشأ و اعتبار محتوا» یا C2PA مداماند که مقصد آن اعتبارسنجی محتواهای گوناگون است. استاندارد C2PA همانند به نوعی برچسب عمل میکند که در آن میتوان زمان و نحوه تشکیل یا تحول تصاویر، ویدیوها، کلیپهای صوتی و فایلهای دیگر را مشاهده کرد.
OpenAI این چنین حرف های است که درحال گسترش راه حلهایی برای نشانهگذاری روی صداهای تولیدشده توسط هوش مصنوعی است تا بتوان آنها را بهراحتی شناسایی کرد. این شرکت امیدوار است حذف این واترمارکها را دشوار کند.
اخیراً مدیرعامل ElevenLabs نیز حرف های است قراردادن واترمارک دیجیتالی روی صداهای هوش مصنوعی میتواند راهحلی برای مقابله با دیپفیکهای صوتی باشد.
دسته بندی مطالب
منبع