NVIDIA โชว์งานวิจัย ใช้ Deep Learning แปลงหน้าคนจริงเป็นโมเดลหน้าคนภายในเกม

หัวข้อกระทู้ ใน 'เทคโนโลยี' เริ่มโพสต์โดย iPokz, 6 สิงหาคม 2017.

  1. iPokz

    iPokz ~" iPokz "~ Staff Member

    ปกติแล้วการทำใบหน้าขณะพูดของตัวละครในเกมหรือภาพยนตร์ CG ให้ดูเหมือนมนุษย์ จะต้องใช้ต้นแบบเป็นวิดีโอของนักแสดงที่เป็นคนจริงๆ มาผ่านซอฟต์แวร์แปลงใบหน้า แล้วค่อยให้ฝ่ายศิลป์ตรวจสอบและแก้ไขอีกครั้ง ซึ่งกระบวนการทั้งหมดสิ้นเปลืองเวลามาก

    งานวิจัยล่าสุดของ NVIDIA ที่โชว์ในงาน SIGGRAPH นำเทคนิค deep learning มาช่วยแก้ปัญหา ให้แปลงวิดีโอคนจริงมาเป็นโมเดล 3D ได้รวดเร็วและแม่นยำขึ้น โดยใช้ข้อมูลเพื่อเทรนเป็นวิดีโอยาวแค่ 5 นาทีเท่านั้น

    เท่านั้นยังไม่พอ ทีมวิจัยของ NVIDIA ยังสามารถสร้างโมเดลใบหน้า 3D โดยไม่ต้องใช้ภาพวิดีโอ แต่ใช้แค่เสียงพูดเท่านั้น วิธีการคือนำกราฟคลื่นเสียงมาโยงกับจุดขยับต่างๆ ของโมเดลบหน้า เพื่อให้ใบหน้าขยับตามเสียงได้

    งานนี้ NVIDIA ใช้ข้อมูลวิดีโอจากสตูดิโอ Remedy Entertainment ผู้พัฒนาเกม Quantum Break, Max Payne, Alan Wake และได้ผลออกมาดี

    ประโยชน์ของงานวิจัยนี้คือบริษัทเกมจะลดต้นทุนในการสร้างโมเดลใบหน้าลงได้มาก และไม่จำเป็นต้องจ้างนักแสดงมาเล่นเป็นตัวละครให้ครบทุกตัว แต่ใช้ AI ช่วยวาดใบหน้าของตัวละครระดับรองๆ แทนได้ (รวมถึงการสร้างใบหน้าของตัวละครที่พูดในภาษาอื่นๆ หากเกมรองรับเสียงพากย์หลายภาษาด้วย)

    ที่มา - NVIDIA

    Topics: NVIDIAGraphicDeep LearningRemedy Entertainment
     

แบ่งปันหน้านี้