- قام Bytedance بتوجيه نموذج AI الذي يولد مقاطع فيديو DeepFake النابضة بالحياة من صورة واحدة.
- صدرت Bytedance مقاطع فيديو اختبار ، بما في ذلك Deepfakes of Ted Talks و Albert Einstein.
- تعمل شركات التكنولوجيا ، بما في ذلك Google و Meta ، على أدوات لاكتشاف DeepFakes بشكل أفضل.
الباحثون في بانسانس، الشركة الأم لـ Tiktok ، عرضت نموذج AI الذي يولد الجسم الكامل مقاطع فيديو DeepFake من صورة واحدة فقط – والنتائج مثيرة للإعجاب.
على عكس بعض نماذج DeepFake التي لا تستطيع إلا أن تنشيط الوجوه أو الهيئات العليا ، فإن Emnihuman-1 من Bytedance يولد رسومًا واقعية للكاملة للجسم والتي تتم مزامنة الإيماءات وتعبيرات الوجه مع الكلام أو الموسيقى ، حسبما ذكرت الشركة.
نشرت Bytedance عدة عشرات من مقاطع الفيديو الاختبارية ، بما في ذلك محادثات TED التي تم إنشاؤها من الذكاء الاصطناعى وألبرت أينشتاين ، إلى omnihuman-lab صفحة المشروع.
يدعم النموذج نسب الجسم المختلفة ونسب العرض إلى الارتفاع ، مما يجعل الإخراج يبدو أكثر طبيعية ، قال باحثون في الباحثين في ورقة نشر الاثنين الذي لفت انتباه مجتمع الذكاء الاصطناعى منذ ذلك الحين.
وقال مات جروه ، أستاذ مساعد متخصص في العلوم الاجتماعية الحاسوبية ، في “واقعية ديبفيكس” للتو وصلت للتو إلى مستوى جديد تمامًا مع إطلاق Bytedance من Omnihuman-1 “. X Post يوم الثلاثاء.
Omnihuman-1 هو أحدث طراز AI من شركة تقنية صينية لجذب انتباه الباحثين بعد إصدار Deepseek’s Market Market R1 نموذج الشهر الماضي.
قال فينكي بالاسوبرامانيان ، مؤسس الشركة والرئيس التنفيذي لشركة التكنولوجيا Plivo ، في يوم الثلاثاء X Post، “أسبوع آخر نموذج صيني آخر من الذكاء الاصطناعي. يمكن أن يخلق Omnihuman-1 by Bytedance مقاطع فيديو بشرية واقعية للغاية باستخدام صورة واحدة فقط ومسار صوتي.”
وقال بيتيانس إن نموذجه الجديد ، الذي تم تدريبه على حوالي 19000 ساعة من بيانات الحركة البشرية ، يمكنه إنشاء مقاطع فيديو من أي طول داخل حدود الذاكرة والتكيف مع إشارات الإدخال المختلفة.
وقال الباحثون إن Omnihuman-1 يتفوق على أدوات الرسوم المتحركة السابقة في معايير الواقعية والدقة.
اكتشاف Deepfake
أصبح من الصعب اكتشاف Deepfakes لأن التكنولوجيا تصبح أكثر تطوراً. قدمت Google و Meta و Openai أدوات العلامات المائية AI ، مثل Synthid و ميتا ختم الفيديو ، لعلامة المحتوى الاصطناعي.
في حين أن هذه الأدوات تقدم بعض الضمانات ، فإن الأدوات لا تزال تلعب اللحاق بالركب مع إساءة استخدام تقنية DeepFake.
تقوم مقاطع الفيديو التي تم إنشاؤها بالنيابة والاستنساخ الصوتية إلى تغذية المضايقات والاحتيال والهجمات الإلكترونية ، مع المجرمين الذين يستخدمون أصوات من الذكاء الاصطناعى لضحايا الاحتيال. أصدرت المنظمون الأمريكيون تنبيهات ، في حين أن تشريع الولايات المتحدة مثل قانون Take Down يهدف إلى معالجة الاباحية Deepfake.
المنتدى الاقتصادي العالمي قال في الشهر الماضي ، تعرض Deepfakes عيوبًا أمنية ومن المتوقع أن “”إنشاء معلومات مضللة وتضليل نهاية العالم. ”