Hyrum Anderson นักวิจัยด้านความปลอดภัยจากบริษัท Endgame โชว์ผลงานวิจัยการใช้ AI สร้างมัลแวร์ที่แอนตี้ไวรัสจับไม่ได้ แนวคิดของเรื่องนี้คือนำโค้ดมัลแวร์เดิมที่เป็นไบนารี มาดัดแปลงเพียงเล็กน้อย (น้อยมากๆ ระดับแก้ไม่กี่ไบต์) โดยให้ AI ทดลองหาวิธีแปลงที่น่าจะหลุดรอดการตรวจจับไปเรื่อยๆ จนกว่าจะได้วิธีการที่ดีที่สุด เช่น เติมเลขศูนย์ เติมไบต์สุ่ม เปลี่ยนชื่อบางเซคชั่นในไฟล์ ฯลฯ AI ตัวนี้ใช้เวลาเทรน 15 ชั่วโมงกับตัวอย่างโค้ด 100,000 ตัวอย่าง (ไม่ระบุว่าทดสอบกับแอนตี้ไวรัสตัวไหน) ผลคือ AI สามารถสร้างโค้ดมัลแวร์ที่มีโอกาสรอดการตรวจจับได้ถึง 60% Anderson เผยแพร่ผลงานของเขาที่งานประชุม DEF CON และเปิดโค้ดบน GitHub โค้ดของเขาใช้ซอฟต์แวร์ช่วยเรียนรู้แบบ reinforcement learning (เรียนรู้แบบมีแรงจูงใจที่จะได้รางวัล) ชื่อ Gym ซึ่งพัฒนาโดยองค์กร OpenAI ที่ก่อตั้งโดย Elon Musk ที่มา - Endgame, The Register GitHub for "Bot vs Bot: evading machine learning malware classifiers" #blackhat2017 @EndgameInc https://t.co/OtSPtT7RCL — Hyrum Anderson (@drhyrum) July 27, 2017 Topics: OpenAIMalwareArtificial IntelligenceDefconSecurity