เกาหลีวิกฤต พบผู้ชาย 2 แสนคน เข้ากลุ่มลับ AI ตัดต่อภาพโป๊เด็ก-ผู้หญิง
เกาหลีใต้เจอวิกฤตหนัก อาชญากรรมทางเพศบนดิจิทัลสูงลิ่ว พบกลุ่มลับ AI ตัดต่อภาพอนาจารเด็ก-ผู้หญิง ที่มีสมาชิกมากถึง 220,000 ราย
ช่วงนี้ใครติดตามข่าวต่างประเทศอาจทราบว่าเวลานี้ประเทศเกาหลีใต้กำลังเผชิญวิกฤตการณ์ Deepfake หรือการนำเทคโนโลยี AI มาตัดต่อหน้ามาทำเป็นสื่อลามก เช่น นำหน้าคนที่ตกเป็นเป้าหมายไปใส่แทนหน้าของดาราหนังผู้ใหญ่จนเกิดเป็นภาพเคลื่อนไหวอนาจารในลักษณะต่าง ๆ ฯลฯ ซึ่งปัจจุบันกำลังระบาดหนักในกลุ่มเด็กนักเรียนหญิง ตั้งแต่ระดับโรงเรียนจนถึงมหาวิทยาลัย โดยกลุ่มผู้ก่อเหตุก็ไม่ใช่ใครอื่นนอกจากบุคคลใกล้ชิด เช่น เพื่อนนักเรียน เพื่อนร่วมงาน หรือแม้กระทั่งคนในครอบครัว
สำนักงานตำรวจแห่งชาติเกาหลีใต้ รายงานว่านับตั้งแต่เดือนมกราคมจนถึงเดือนกรกฎาคมที่ผ่านมา (7 เดือน) มีเคสแจ้งความด้านอาชญากรรมทางเพศ Deepfake มากถึง 297 ราย ซึ่งแหล่งข้อมูลแจ้งว่าเป็นการแชร์รูปภาพ-วิดีโอภายในกลุ่มลับ Telegram ที่มีสมาชิกส่วนใหญ่เป็นผู้ชายราว 220,000 คน
ด้านหนึ่งในกลุ่มเหยื่อที่เป็นหญิงสาวมหาวิทยาลัยแห่งหนึ่งกล่าวกับ BBC ว่า เธอเคยเจอรูปตัวเองถูกตัดต่อเป็นภาพอนาจารบนเทเลแกรม ซึ่งรูปดังกล่าวเป็นรูปที่เธอเคยถ่ายเอาไว้สมัยที่ยังเรียนชั้นมัธยม อีกทั้งยังมีมือดีส่งรูปให้เธอซ้ำสองอีกครั้งจนทำให้เธอรู้สึกหวาดกลัวเป็นอย่างมาก
ต่อมา ยุน ซ็อก-ย็อล (Yoon Suk Yeol) ประธานาธิบดีเกาหลีใต้ จึงออกคำสั่งปราบปรามการระบาดอาชญากรรมทางเพศดังกล่าว ซึ่งมีเป้าหมายในการติดตามผู้กระทำผิดที่จะเริ่มต้นในสัปดาห์นี้ โดยมุ่งเน้นไปที่ผู้ที่แสวงหาผลประโยชน์จากเด็กและวัยรุ่น
ขณะเดียวกัน กลุ่มสิทธิสตรีในเกาหลีใต้หลายกลุ่มแย้งว่าปัญหาความเกลียดชังในเพศหญิงผ่านโลกออนไลน์ต่างหากที่กำลังถูกมองข้าม เนื่องจากจุดเริ่มต้นวิกฤตการณ์ Deepfake ก็มาจากสิ่งนี้ ซึ่งมันลุกลามไปถึงการคุกคามในชีวิตจริง ไม่ว่าจะเป็นการถูกแอบถ่ายในห้องน้ำ ฯลฯ จึงเกิดเป็นแถลงการณ์ภายใต้การรวมตัวของ 84 กลุ่มสิทธิสตรี ว่า
“สาเหตุหลักของสิ่งนี้คือการเหยียดเพศเชิงโครงสร้างและทางแก้คือความเท่าเทียมทางเพศ แต่ยุน ปฏิเสธการมีอยู่ของการเหยียดเพศเชิงโครงสร้าง” พร้อมเสนอปรับลดเงินทุนสำหรับกลุ่มสนับสนุนเหยื่อและยกเลิกกระทรวงความเท่าเทียมทางเพศของรัฐบาลอีกด้วย
อ่านข่าวที่เกี่ยวข้อง