NVIDIA ออก TensorRT 2.0 ซอฟต์แวร์ช่วยเร่งประสิทธิภาพโมเดล Deep Learning

หัวข้อกระทู้ ใน 'เทคโนโลยี' เริ่มโพสต์โดย iPokz, 30 มิถุนายน 2017.

  1. iPokz

    iPokz ~" iPokz "~ Staff Member

    NVIDIA มีซอฟต์แวร์ชื่อ TensorRT สำหรับรีดประสิทธิภาพ (optimization) ของการรันโมเดล deep learning ที่พัฒนามาได้สักระยะหนึ่งแล้ว ล่าสุด NVIDIA เปิดให้นักพัฒนาสามารถดาวน์โหลด TensorRT 2.0 ไปใช้งานกัน

    ปกติแล้วในโลกของ AI เราแยกงานของการเทรนหรือสร้างโมเดล (training) และการนำโมเดลไปใช้งาน (interference) ออกจากกัน

    แนวคิดของ TensorRT คือการรีดประสิทธิภาพในตอนรัน (RT = runtime) ให้มีประสิทธิภาพสูงสุด มันออกแบบมาสำหรับปรับแต่งประสิทธิภาพก่อน เพื่อตอนรันงานจริง (production) จะได้ใช้งานทรัพยากรเครื่องอย่างคุ้มค่าที่สุด (เทคนิคจะคล้ายกับการแปลง bytecode ของ Java หรือการคอมไพล์แบบ ahead-of-time)

    NVIDIA คุยว่า TensorRT 2.0 สามารถเร่งความเร็วของการรันโมเดลได้มากถึง 45 เท่า เมื่อเทียบกับการรันโมเดลด้วยซีพียูเพียงอย่างเดียว

    ในโอกาสเดียวกัน NVIDIA ยังประกาศพัฒนา TensorRT 3.0 ต่อแล้ว โดยมันจะออกแบบมาสำหรับจีพียูสถาปัตยกรรม Volta ตัวต่อไปโดยเฉพาะ และสามารถเร่งประสิทธิภาพได้ดีขึ้น 3.5 เท่า เมื่อเทียบกันระหว่าง Tesla V100 (Volta) กับ Tesla P100 (Pascal)

    ฟีเจอร์อื่นๆ ยังรวมถึงการนำโมเดลจาก Caffe, TensorFlow มาใช้งาน และการรองรับแพลตฟอร์ม Android, QNX ด้วย

    [​IMG]

    ภาพจาก NVIDIA Facebook

    [​IMG]

    ภาพจาก NVIDIA

    [​IMG]

    ภาพจาก NVIDIA

    [​IMG]

    ภาพจาก NVIDIA

    ที่มา - Phoronix, Infoworld

    Topics: NVIDIADeep LearningMachine Learning
     

แบ่งปันหน้านี้