รายงานพิเศษ NBC : ความพยายามของเฟซบุ๊กในการรับมือภาพโป๊แบล็กเมล์

หัวข้อกระทู้ ใน 'เทคโนโลยี' เริ่มโพสต์โดย iPokz, 19 พฤศจิกายน 2019.

  1. iPokz

    iPokz ~" iPokz "~ Staff Member

    การโพสต์รูปโป๊เพื่อกลั่นแกล้ง หรือแก้แค้น (revenge porn) เป็นการคุกคามอีกรูปแบบหนึ่งที่โซเชียลมีเดียต้องรับมือ สำนักข่าว NBC ทำรายงานพิเศษ สัมภาษณ์ทีมงานเฟซบุ๊ก เจาะลึกวิธีที่เฟซบุ๊กใช้จัดการกับคอนเทนต์เหล่านี้

    [​IMG]
    ภาพจาก Shutterstock

    ฝึก AI ตรวจจับ ใช้ทีมคัดเนื้อหา revenge porn โดยเฉพาะ


    เฟซบุ๊กมีทีมทำงานเฉพาะคอนเทนต์ revenge porn โดยเฉพาะ 25 คน แยกออกมาจากคนคัดกรองเนื้อหาที่ทำงานกันตามปกติ และนอกเหนือจากการใช้ machine learning ตรวจจับภาพโป๊ ทีมงานเหล่านี้จะช่วยดูภาพที่ถูกรายงานเข้ามา และทำให้แน่ใจว่าภาพจะถูกนำออก และไม่ถูกแชร์ต่อ ซึ่งต้องจัดการให้เร็วที่สุดเท่าที่จะทำได้ เนื่องจากภาพ revenge porn จะส่งผลกระทบต่อเหยื่อมากกว่าจะถูกโพสต์ที่อื่น เพราะบนเฟซบุ๊กเต็มไปด้วยคนรู้จักทั้งเพื่อน ครอบครัว คนในที่ทำงาน

    ย้อนกลับไปในปี 2017 เฟซบุ๊กเริ่มโครงการรับมือ revenge porn ในออสเตรเลีย หาอาสาสมัครในการส่งรูปโป๊รูปแอบถ่าย เข้ามาก่อนเลย เพื่อที่ระบบจะได้บล็อกการแชร์รูปภาพเหล่านี้ในภายหลัง แน่นอนว่าตอนนั้นมีหลายกระแส และมีความกังวลว่าเฟซบุ๊กทำถูกต้องแล้วหรือ อีกทั้งสื่อก็พาดหัวกันสนุกสนาน แต่ก็มีคนเห็นด้วยกับโครงการที่เฟซบุ๊กเริ่มทำโดยเฉพาะเหยื่อ revenge porn บางราย

    Danielle Citron รองประธาน Cyber Civil Rights Initiative บอกว่า มันเป็นการทำให้แน่ใจว่ารูปของเหยื่อจะไม่ได้รับการรีโพสต์หรือแชร์ใหม่อีกครั้ง มันเป็นความรู้สึกที่เหยื่อสามารถจัดการกับรูปภาพหลุดของตัวเองได้บ้าง Citron ยังรู้สึกผิดหวังกับสื่อที่เล่นข่าวนี้ และผิดหวังที่คนโจมตีเฟซบุ๊กเรื่องนี้ซึ่งไมยุติธรรมเท่าไรนัก

    [​IMG]
    ภาพจาก เฟซบุ๊ก

    ความพยายามของเฟซบุ๊กยังไม่ต่างกับเล่นเกมทุบตัวตุ่น


    ในปี 2018 เฟซบุ๊กทำวิจัยเรื่อง revenge porn เพิ่มเติม โดยสัมภาษณ์เหยื่อในหลายประเทศทั้งเหยื่อผู้หญิงและผู้ชาย ทำให้เฟซบุ๊กเจอความท้าทายเพิ่มขึ้น คือ ภาพที่โพสต์เพื่อกลั่นแกล้ง แก้แค้นกัน ไม่จำเป็นต้องโป๊มาก เช่นในวัฒนธรรมอินเดีย ภาพผู้หญิงถ่ายคู่กับผู้ชายข้างสระน้ำ ใส่เสื้อผ้าครบ ก็เป็นเรื่องไม่สมควรแล้ว เป็นต้น นอกจากนี้ กลุ่มเหยื่อยังฟีดแบคกลับไปยังเฟซบุ๊กด้วยว่าช่องทางรายงานรูปภาพยังซับซ้อนเกินไป และเวลาที่คนแชร์รูปภาพของเหยื่อก็มักแชร์กันในแชท ทำให้เหยื่อมองไม่เห็นและไม่สามารถรายงานรูปภาพได้อยู่ดี

    เฟซบุ๊กจึงต้องฝึก AI ให้รับรู้ภาพทำนองนี้ได้ ซึ่งยังถือเป็นเรื่องยาก แต่จะพยายามรับรู้ภาพที่มีอีโมจิยิ้ม หัวเราะ และแคปชั่นทำนองว่า ดูนี่สิ เข้ามา เพราะมันมีความเป็นไปได้ว่าจะเป็นภาพ revenge porn

    อย่างไรก็ตาม สิ่งที่เฟซบุ๊กทำมาตลอด อาจยังไม่ต่างจากเกมทุบตัวตุ่น ยังมีฟีดแบคจากเหยื่อว่ารูปของเธอยังอยู่บนเฟซบุ๊ก โดยเฉพาะในแชท และใน Facebook Groups และใน Instagram ก็ใช้เวลานานกว่าระบบจะลบรูปออก นอกจากนี้เฟซบุ๊กเองก็ยัไม่มีช่องทางและภาษาที่ใช้ระบุ revenge porn อย่างตรงไปตรงมา ทำได้เต็มที่ก็ระบุว่าเป็นภาพเปลือย ซึ่งมันก็จะไม่ได้เข้าคิวแรกในการลบออก

    ฟีดแบคด้านดีก็มี Revenge Porn Helpline องค์กรไม่แสวงผลกำไรช่วยเหลือเหยื่อ revenge porn ระบุว่า ในช่วงเวลา 1 ปี เฟซบุ๊กได้ลบรูปเหยื่อได้ 400 ราย ซึ่งในมุมมองเหยื่อถือเป็นการช่วยเหลือที่ยิ่งใหญ่ ทางองค์กรมองว่าในบรรดาหลายแพลตฟอร์ม เฟซบุ๊กมีความกระตือรือร้นในการรับมือเรื่องนี้มากที่สุด

    ในอนาคต เฟซบุ๊กจะเดินหน้าโครงการรับอาสาสมัครส่งรูปโป๊ หรือรูปที่ทำให้ตกเป็นเหยื่อ revenge porn ในประเทศอื่นๆ เพิ่มเติม เช่น อังกฤษ สหรัฐ แคนาดา ไต้หวัน ปากีสถาน รวมถึงประเทศในยุโรป ตะวันออกกลาง และละตินอเมริกา และเล็งร่วมกับบริษัทอื่นอย่างไมโครซอฟท์ ทวิตเตอร์ YouTube Snap Reddit เพื่อจัดการปัญหาด้วย

    ที่มา - NBC

    Topics: FacebookSexual AbuseCrimePorn
     

แบ่งปันหน้านี้