شرکت Runway از مدل جدید موشن کپچر خود با نام «Act-Two» رونمایی کرد. این مدل به کاربران امکان میدهد تا فقط با استفاده از ویدیویی ساده از یک بازیگر، هر نوع شخصیتی را، از انسان گرفته تا موجودات فانتزی، با جزئیات کامل و واقعگرایانه متحرک کنند.
ابزارهای هوش مصنوعی به سرعت درحال تغییر صنعت ویدیو هستند، شرکت Runway نیز با معرفی Act-Two گامی بزرگ در حوزه موشن کپچر برداشته است. این فناوری بهجای استفاده از لباسهای مخصوص و سنسورهای گرانقیمت، تنها به دو ورودی نیاز دارد: یک ویدیوی عادی از یک فرد که درحال صحبتکردن، حرکت و ابراز احساسات است و یک تصویر یا ویدیوی ثابت از شخصیتی که میخواهید آن را متحرک کنید. سپس، هوش مصنوعی Act-Two بهطور خودکار، تمام حرکات، حالات چهره، حرکات دست و حتی نحوه صحبتکردن را از ویدیوی اول به شخصیت دوم منتقل میکند.
معرفی هوش مصنوعی Act-Two از Runway
فناوری موشن کپچر سنتی، فرایندی بسیار پرهزینه و پیچیده است که نیازمند استودیوهای مجهز و تجهیزات گرانقیمت است. Act-Two پتانسیل آن را دارد که این فرایند را در اختیار همه بگذارد و به فیلمسازان مستقل، استودیوهای کوچک و حتی تولیدکنندگان محتوای معمولی اجازه دهد تا با کیفیتی نزدیک به تولیدات بزرگ، شخصیتهای خود را متحرک کنند.
مدل جدید Runway که برپایه مدل ویدیویی Gen-4 ساخته شده، دارای بهبودهای قابل توجهی است:
- Act-Two قادر به ردیابی همزمان سر، صورت، بدن و حرکات دقیق دستها است.
- این سیستم میتواند شکل اجرا را به طیف وسیعی از شخصیتها با سبکهای هنری مختلف (از رئال تا کارتونی) منتقل کند، بدون آنکه کیفیت و وفاداری به اجرای اصلی کاهش یابد.
- هنگام استفاده از یک تصویر ثابت به عنوان مرجع شخصیت، Act-Two نه تنها حرکات بدن و دستها را از ویدیوی محرک کنترل میکند، بلکه بهطور خودکار حرکات محیطی نامحسوسی را نیز به صحنه اضافه میکند تا نتیجه نهایی طبیعیتر به نظر برسد.
- هنگام استفاده از یک ویدیوی مرجع، سیستم محیط و حرکت دوربین ویدیوی اصلی را حفظ میکند.

قابلیت Act-Two هماکنون برای کاربران اشتراکهای Standard و بالاتر در پلتفرم Runway در دسترس است. هزینه استفاده از آن ۵ کردیت به ازای هر ثانیه خروجی است و حداقل طول ویدیو باید ۳ ثانیه باشد. این سیستم قادر به تولید ویدیوهایی تا سقف ۳۰ ثانیه با رزولوشنهای مختلف و با نرخ ۲۴ فریم بر ثانیه است.
نظرات کاربران