หลังจากที่มีการยืนยันการใช้ AI สแกนภาพโป๊เด็กในอุปกรณ์ของ Apple ที่เป็น iOS 15 เมื่อวันศุกร์ที่ผ่านมา ทำให้หลายคนออกมาแสดงความไม่เห็นด้วยกับฟีเจอร์นี้ ล่าสุดทาง Apple ได้เผยแพร่ FAQ เพื่อตอบข้อกังวลของผู้ใช้เกี่ยวกับเรื่องความเป็นส่วนตัว

ทาง Apple กล่าวว่าหลังจากที่ประกาศฟีเจอร์นี้ออกไป ทำให้ผู้ที่เกี่ยวข้องจากหลายๆฝ่ายแสดงความเป็นห่วง ไม่ว่าจะเป็น หน่วยงานด้านความเป็นส่วนตัว องค์กรเกี่ยวกับเด็กที่แสดงความเห็นด้วย แต่ก็มีอีกหลายๆที่แสดงถึงความเป็นกังวล นั่นจึงเป็นที่มาของเอกสาร FAQ ที่จะมาตอบข้อสงสัยและแสดงความชัดเจนให้ทุกฝ่ายได้รับรู้

เรื่องแรกคือ ฟีเจอร์ Communication Safety สำหรับสแกนภาพ/คลิปโป๊เกี่ยวกับเด็กที่อยู่ในแอป Messages นั้น ระบบจะทำงานก็ต่อเมื่อเป็นเครื่องของเด็กที่มีการตั้งค่าผ่าน Family Sharing เท่านั้น โดยระบบจะส่งการแจ้งเตือนไปยังเครื่องของผู้ปกครองในกรณที่เด็กส่งรูปโป๊ออกไปหรือมีคนส่งรูปโป๊มาให้ หากไม่ได้ตั้งค่าไว้ระบบก็จะไม่ทำงาน

ส่วนฟีเจอร์ CSAM detection ใน ‌iCloud Photos‌ จะส่งผลกระทบต่อผู้ใช้ที่เลือก ‌iCloud Photos‌ มาเก็บรูปเอาไว้บนออนไลน์ ส่วนรูปที่อยู่ในเครื่องนั้นจะไม่ถูกสแกน นอกจากนั้นใน FAQ ก็จะมีคำถาม-คำตอบที่คนสงสัยหลายข้อ ลองมาดูประเด็นที่น่าสนใจกันดีกว่า

ระบบ CSAM detection ใน iCloud Photos สามารถใช้ตรวจสอบรูปอย่างอื่นได้อีกหรือเปล่า?
ระบบของเราออกแบบมาเพื่อป้องกันสื่อที่มีการล่วงละเมิดทางเพศเด็ก โดยใช้การตรวจสอบ แฮช ที่ฝังอยู่ในรูปภาพ ซึ่งแฮชนี้รวบรวมโดย NCMEC และองค์กรที่เกี่ยวกับเด็ก ผ่านการยืนยันและตรวจสอบแล้วว่าเป็นภาพที่มีการละเมิดจริงเมื่อตรวจพบจะไม่มีระบบอัตโนมัติรายงานไปยังหน่วยงานด้านกฎหมาย แต่จะมีพนักงานของ Apple คอยตรวจสอบก่อนจะส่งรายงานให้  NCMEC

ระบบถูกออกแบบให้รายงานรูปที่อยู่ใน iCloud Photos เฉพาะรูปที่ตรงกับฐานข้อมูลแฮชของ CSAM ซึ่งภาพละเมิดทางเพศเด็กในหลายประเทศถือว่าผิดกฎหมาย เช่น สหรัฐ และไทย

รัฐบาลสามารถบังคับ Apple ให้ค้นหาภาพอย่างอื่นที่นอกเหนือจาก CSAM ได้หรือไม่?
Apple ขอปฎิเสธที่จะทำ เพราะระบบ CSAM detection ถูกสรางขึ้นมาเพื่อสแกนภาพที่มีการละเมิดเด็ก ที่ถูกเก็บไว้บน iCloud Photos ซึ่งภาพเหล่านี้มีการยืนยันโดยผู้เชี่ยวชาญจาก NCMEC และองค์กรสำหรับเด็ก ก่อนหน้านี้เราเคยถูกภาพรัฐกดดันให้ลดระดับความเป็นส่วนตัวของผู้ใช้ แต่ด้วยมาตรฐานของเราจำเป็นต้องปฏิเสธไป และในอนาคนเราก็ยันยืนกรานปฏิเสธต่อไป

เทคโนโลยีนี้จำกัดการสแกนภาพ CSAM ที่เก็บไว้บน iCloud เท่านั้นและเราจะไม่มีขยายไปตรวจสอบเรื่องอื่นๆ ในกรณที่พบว่ามีภาพที่ไม่ตรงกับ NCMEC ก็จะมีทีมงานคอยตรวสอบอีกครั้ง ว่าละเมิดหรือไม่

สามารถเพิ่มภาพที่ไม่ใช่ CSAM เพื่อให้ระบบตรวจสอบภาพอื่นๆได้หรือไม่?
กระบวนการของเราออกแบบมาเพื่อป้องกันไม่ให้เรื่องนี้เกิดขึ้น ข้อมูลแฮชของรูปภาพที่นำมาใช้กับ AI นั้นจะต้องตรงกับข้อมูลที่ได้มาและยืนยันจากหน่วยงานเกี่ยวข้องความปลอดภัยของเด็ก ทาง Apple ไม่ได้เพิ่มข้อมูลเองโดยข้อมูลบางส่วนจะถูกเก็บไว้ในระบบปฏิบัติการ

สุดท้ายคือไม่มีระบบอัตโนมัติแจ้งไปยังหน่วยงานด้านกฎหมาย รวมถึงมีทีมงานคอยตรวจสอบก่อนส่งให้ NCMEC เพื่อให้มั่นใจในกรณีที่มีรายงานภาพที่ไม่ตรงกับฐานข้อมูล

ทาง Apple เองก็เผชิญการวิพากษ์วิจารณ์อย่างหนักจากหลายฝ่ายที่ไม่เห็นด้วย รวมถึงมีการส่งจดหมายเปิดผนึกซึ่งมีคนร่วมลงชื่อกว่า 5,500 คนที่ไม่ปลื้มฟีเจอร์นี้ เพราะอาจะเป็นการเปิดประตูหลังให้รัฐบาลหรือแฮกเกอร์ให้เข้าถึงข้อมูลที่อยู่ในเครื่องได้

ที่มา Macrumors