สถาบันวิจัยปัญญาประดิษฐ์ประเทศไทยปล่อยโมเดลทางภาษาไทย WangchanBERTa

Discussion in 'เทคโนโลยี' started by iPokz, Jan 24, 2021.

  1. iPokz

    iPokz ~" iPokz "~ Staff Member

    สถาบันวิจัยปัญญาประดิษฐ์ประเทศไทย (VISTEC-depa Thailand Artificial Intelligence Research Institute) ปล่อยโมเดล WangchanBERTa ซึ่งเป็นโมเดลทางภาษาไทยสำหรับงานประมวลผลภาษาธรรมชาติโดยฝึกฝนบนสถาปัตยกรรม RoBERTa

    โมเดล WangchanBERTa ถูกฝึกฝนด้วยชุดข้อมูลกว่า 78.48 GB ใช้ตัวตัดคำย่อย SentencePiece ในการแบ่งคำและ ใช้เวลาฝึกฝนโมเดล 3 เดือน

    ทำให้โมเดล WangchanBERTa ถือเป็นโมเดลภาษาไทยที่ใหญ่ที่สุด ณ ขณะนี้ ซึ่งในการฝึกฝนใช้ไฟฟ้าทั้งหมด 10,566.5 kWh หรือคิดเป็นรอยเท้าคาร์บอน 7.5 ตัน เทียบเท่าการใช้รถ 1.6 คันในหนึ่งปี

    ที่มา: VISTEC-depa AI Research Institute of Thailand

    Topics: ThailandArtificial IntelligenceNatural Language
     

Share This Page