Apple เผยรายละเอียดฟีเจอร์ปกป้องเด็กใน iOS 15 ที่จะปล่อยอัปเดตในปลายปีนี้ หนึ่งในนั้นคือการ สแกนรูปโป๊เด็กในเครื่อง โดยจะเปิดให้ใช้งานในสหรัฐก่อน จากนั้นจะขยายการใช้งานไปยังประเทศอื่นๆ
Communication Safety
ฟีเจอร์แรกคือ แอป Messages บน iPhone, iPad และ Mac จะมีการแจ้งเตือนเด็กและผู้ปกครอง ในกรณีที่มีการส่งหรือได้รับรุปภาพโป๊เปลือย ซึ่ง Apple ใช้ machine learning ในเครื่องมาช่วยวิเคราหะ์รูปภาพที่แนบมากับข้อความ หากพบภาพโป๊ะก็จะทำการเบลอให้อัตโนมัติ พร้อมแจ้งเตือนทันที ในกรณีที่เด็กต้องการจะดูภาพนั้นๆ ก็จะมีการแจ้งเตือนให้รู้ว่าภสพนั้นมีความสุ่มเสี่ยง
ทั้งนี้การแจ้งเตือนก็ขึ้นอยู่กับอายุของเด็กด้วย ซึ่งผู้ปกครองสามารถตั้งค่าการแจ้งเตือนให้ตัวเองรู้ได้เวลาที่เด้กพยายามจะเปิดภาพเหล่านั้นหรือมีการส่งภาพโป๊ไปยังบุคคลอื่น
สแกนภาพโป๊เด็กในเครื่อง (Scanning Photos for Child Sexual Abuse Material ;CSAM)
ฟีเจอร์ต่อมาคือ การสแกนภาพโป๊เด็กที่เก็บไว้ใน iCloud Photos หากพบภาพที่เข้าข่ายจะรายงานไปยัง National Center for Missing and Exploited Children (NCMEC) ซึ่งเป็นหน่วยงานที่ไม่แสวงหากำไรที่ทำงานร่วมกับหน่วยงานทางกฎหมาย แน่นอนว่าฟีเจอร์นี้ยังคงคำนึงถึงความเป็นส่วนตัวของผู้ใช้ ด้วยการใช้ AI ในเครื่องมาประมวลผลจำคู่ภาพในฐานข้อมูลของ CSAM ผ่านเทคโนโลยี NeuralHash ที่จะวิเคราะห์รูปภาพแล้วเปลี่ยนเป็นตัวเลขเฉพาะของรูปนั้นแล้วค่อยนำไปเทียบกับฐานข้อมูล ด้วยวิธีนี้ทำให้สามารถระบุภาพโป๊เด็กโดยที่ไม่รุกล้ำความเป็นส่วนตัวของผู้ใช้
ทาง Apple เองก็วางแผนที่จะนำเทคโนโลยีนี้ไปใช้กับสิริและการค้นหาด้วย Spotlight Search เพื่อให้ผู้ปกครองมั่นใจได้ว่าเด็กๆจะใช้งานมือถือได้อย่างปลอดภัย
ที่มา macRumors