“การละเมิดด้วยดีปเฟก ก็คือการละเมิด” แถลงการณ์ของยูนิเซฟเกี่ยวกับการสร้างภาพเด็กที่ส่อไปในทางเพศด้วย AI

นิวยอร์ก/กรุงเทพฯ, 6 กุมภาพันธ์ 2569 – “ยูนิเซฟแสดงความกังวลอย่างยิ่งต่อรายงานที่ชี้ให้เห็นถึงการเพิ่มขึ้นอย่างรวดเร็วของสื่อทางเพศที่เกี่ยวข้องกับเด็ก ซึ่งถูกสร้างขึ้นด้วยเทคโนโลยีปัญญาประดิษฐ์ (AI) รวมถึงการนำภาพถ่ายของเด็กไปดัดแปลงหรือบิดเบือนให้มีลักษณะส่อไปในทางเพศ ซึ่งกำลังแพร่กระจายในวงกว้าง

“ดีปเฟก” หมายถึงภาพ วิดีโอ หรือเสียงที่ถูกสร้างหรือปรับแต่งด้วย AI ให้ดูสมจริง ปัจจุบันเทคโนโลยีนี้ถูกนำมาใช้มากขึ้นในการผลิตเนื้อหาที่เป็นการล่วงละเมิดทางเพศต่อเด็ก ไม่ว่าจะเป็นการตัดต่อภาพให้มีลักษณะทางเพศ หรือการใช้เทคนิคที่เรียกว่า “การทำให้เปลือย” ซึ่งเป็นการใช้ AI ลบหรือดัดแปลงเสื้อผ้าในภาพถ่าย เพื่อปลอมแปลงให้เป็นภาพเปลือยหรือส่อไปในทางเพศ

“หลักฐานล่าสุดยืนยันว่า ภัยคุกคามนี้กำลังขยายตัวอย่างรวดเร็ว จากการศึกษาของยูนิเซฟร่วมกับ ECPAT และองค์การตำรวจสากล (INTERPOL) ใน 11 ประเทศ พบว่าในปีที่ผ่านมา มีเด็กอย่างน้อย 1.2 ล้านคนที่เปิดเผยว่าภาพของตนถูกดัดแปลงด้วยวิธีการดีปเฟกให้มีลักษณะส่อไปในทางเพศ ในบางประเทศ เด็กมากถึง 1 ใน 25 คนได้รับผลกระทบ ซึ่งหมายความว่า ในห้องเรียนทั่วไป อาจมีเด็กอย่างน้อย 1 คนที่กำลังเผชิญกับการละเมิดในรูปแบบนี้

“เด็ก ๆ เองก็รับรู้ถึงความเสี่ยงดังกล่าว ในบางประเทศที่เข้าร่วมการศึกษา เด็ก 2 ใน 3 คนแสดงความกังวลว่า AI อาจถูกนำมาใช้สร้างภาพหรือวิดีโอทางเพศปลอม ระดับความกังวลแตกต่างกันในแต่ละประเทศ สะท้อนถึงความจำเป็นเร่งด่วนในการการเสริมสร้างการตระหนักรู้ การป้องกัน และระบบคุ้มครองเด็กให้เข้มแข็งยิ่งขึ้น

“ยูนิเซฟขอเน้นย้ำว่า ภาพเด็กที่ถูกนำไปใช้ในลักษณะทางเพศ ไม่ว่าจะถูกสร้างหรือดัดแปลงด้วย AI ล้วนถือเป็น สื่อการล่วงละเมิดทางเพศเด็ก (Child Sexual Abuse Material: CSAM) การละเมิดผ่านดีปเฟกคือการละเมิดจริง และไม่มีสิ่งใดเป็น “ของปลอม” เมื่ออันตรายที่เกิดขึ้นเป็นของจริง

“เมื่อภาพหรืออัตลักษณ์ของเด็กถูกนำไปใช้ เด็กคนนั้นย่อมตกเป็นเหยื่อโดยตรง แม้ในกรณีที่ไม่สามารถระบุตัวตนได้ สื่อ CSAM ที่สร้างขึ้นด้วย AI ทำให้การแสวงประโยชน์ทางเพศต่อเด็กถูกมองเป็นเรื่องปกติ อีกทั้งยังกระตุ้นความต้องการเนื้อหาลักษณะนี้ และสร้างอุปสรรคต่อการทำงานของเจ้าหน้าที่ในการระบุตัว คุ้มครอง และช่วยเหลือเด็กที่ได้รับผลกระทบ

“ยูนิเซฟชื่นชมความพยายามของนักพัฒนา AI ที่นำแนวคิดเรื่องความปลอดภัยตั้งแต่ขั้นตอนการออกแบบและมาตรการกำกับดูแลที่เข้มงวดมาใช้ เพื่อลดการนำเทคโนโลยีไปใช้ในทางที่ผิด อย่างไรก็ตาม มาตรฐานด้านความปลอดภัยในภาพรวมยังคงมีความเหลื่อมล้ำ โดยยังมีโมเดล AI จำนวนมากที่ขาดมาตรการคุ้มครองที่รัดกุมเพียงพอ และความเสี่ยงนี้อาจยิ่งเพิ่มขึ้น เมื่อ AI ถูกเชื่อมเข้ากับแพลตฟอร์มโซเชียลมีเดียโดยตรง

“ยูนิเซฟจึงขอเรียกร้องให้ทุกภาคส่วนเร่งดำเนินการดังต่อไปนี้ เพื่อรับมือกับภัยคุกคามที่รุนแรงขึ้นจากสื่อการล่วงละเมิดทางเพศเด็กที่ถูกสร้างขึ้นโดย AI

รัฐบาลทุกประเทศ ควรขยายคำนิยามของสื่อการล่วงละเมิดทางเพศเด็ก (CSAM) ให้ครอบคลุมถึงเนื้อหาที่สร้างขึ้นหรือดัดแปลงด้วย AI และกำหนดให้การสร้าง การจัดหา การครอบครอง และการเผยแพร่เนื้อหาดังกล่าวเป็นความผิดตามกฎหมาย
นักพัฒนา AI ควรนำหลัก “ความปลอดภัยตั้งแต่การออกแบบ” และมาตรการกำกับควบคุมที่เข้มแข็งมาใช้ เพื่อป้องกันการนำ AI ไปใช้ในทางที่ผิด
บริษัทดิจิทัล ควรดำเนินมาตรการเชิงป้องกันตั้งแต่ต้นทาง เพื่อไม่ให้มีการสร้างหรือเผยแพร่สื่อ CSAM ที่สร้างด้วย AI ไม่ใช่เพียงแค่ลบเนื้อหาหลังเกิดการละเมิดแล้ว พร้อมเสริมความเข้มแข็งของระบบการกลั่นกรองเนื้อหา โดยลงทุนในเทคโนโลยีการตรวจจับที่มีประสิทธิภาพ เพื่อให้สามารถระบุและลบเนื้อหาดังกล่าวได้อย่างทันท่วงที ไม่ปล่อยให้ล่าช้าหลายวันหลังจากมีการแจ้งเหตุ

“อันตรายจากการละเมิดด้วยดีปเฟกเป็นเรื่องจริงและเร่งด่วน เด็ก ๆ ไม่อาจรอให้กฎหมายไล่ตามให้ทันได้”.

Written By
More from pp
กรมควบคุมโรค เผยกรณีชายสัญชาติอินเดียตรวจพบเชื้อโควิด 19 ขณะไปตรวจร่างกายเพื่อขอใบอนุญาตทำงานที่จังหวัดกระบี่
กรมควบคุมโรค กระทรวงสาธารณสุข เผยกรณีชายสัญชาติอินเดียตรวจพบเชื้อโควิด 19 ขณะไปตรวจร่างกายเพื่อขอใบอนุญาตทำงานที่จังหวัดกระบี่ พร้อมมอบหมายหน่วยงานในสังกัดลงพื้นที่ตรวจสอบและติดตามค้นหาผู้สัมผัสเพิ่มเติม โดยทุกหน่วยงานที่เกี่ยวข้องในพื้นที่ เร่งดำเนินการป้องกันควบคุมโรคอย่างเข้มข้น เพื่อสร้างความมั่นใจให้กับประชาชน
Read More
0 replies on ““การละเมิดด้วยดีปเฟก ก็คือการละเมิด” แถลงการณ์ของยูนิเซฟเกี่ยวกับการสร้างภาพเด็กที่ส่อไปในทางเพศด้วย AI”