Apple เผยรายละเอียดฟีเจอร์ปกป้องเด็กใน iOS 15 ที่จะปล่อยอัปเดตในปลายปีนี้ หนึ่งในนั้นคือการ สแกนรูปโป๊เด็กในเครื่อง โดยจะเปิดให้ใช้งานในสหรัฐก่อน จากนั้นจะขยายการใช้งานไปยังประเทศอื่นๆ
/article-new/2021/08/iphone-communication-safety-feature.jpg?lossy)
Communication Safety
ฟีเจอร์แรกคือ แอป Messages บน iPhone, iPad และ Mac จะมีการแจ้งเตือนเด็กและผู้ปกครอง ในกรณีที่มีการส่งหรือได้รับรุปภาพโป๊เปลือย ซึ่ง Apple ใช้ machine learning ในเครื่องมาช่วยวิเคราหะ์รูปภาพที่แนบมากับข้อความ หากพบภาพโป๊ะก็จะทำการเบลอให้อัตโนมัติ พร้อมแจ้งเตือนทันที ในกรณีที่เด็กต้องการจะดูภาพนั้นๆ ก็จะมีการแจ้งเตือนให้รู้ว่าภสพนั้นมีความสุ่มเสี่ยง
ทั้งนี้การแจ้งเตือนก็ขึ้นอยู่กับอายุของเด็กด้วย ซึ่งผู้ปกครองสามารถตั้งค่าการแจ้งเตือนให้ตัวเองรู้ได้เวลาที่เด้กพยายามจะเปิดภาพเหล่านั้นหรือมีการส่งภาพโป๊ไปยังบุคคลอื่น
สแกนภาพโป๊เด็กในเครื่อง (Scanning Photos for Child Sexual Abuse Material ;CSAM)
ฟีเจอร์ต่อมาคือ การสแกนภาพโป๊เด็กที่เก็บไว้ใน iCloud Photos หากพบภาพที่เข้าข่ายจะรายงานไปยัง National Center for Missing and Exploited Children (NCMEC) ซึ่งเป็นหน่วยงานที่ไม่แสวงหากำไรที่ทำงานร่วมกับหน่วยงานทางกฎหมาย แน่นอนว่าฟีเจอร์นี้ยังคงคำนึงถึงความเป็นส่วนตัวของผู้ใช้ ด้วยการใช้ AI ในเครื่องมาประมวลผลจำคู่ภาพในฐานข้อมูลของ CSAM ผ่านเทคโนโลยี NeuralHash ที่จะวิเคราะห์รูปภาพแล้วเปลี่ยนเป็นตัวเลขเฉพาะของรูปนั้นแล้วค่อยนำไปเทียบกับฐานข้อมูล ด้วยวิธีนี้ทำให้สามารถระบุภาพโป๊เด็กโดยที่ไม่รุกล้ำความเป็นส่วนตัวของผู้ใช้
/article-new/2021/08/apple-csam-flow-chart.jpg?lossy)
ทาง Apple เองก็วางแผนที่จะนำเทคโนโลยีนี้ไปใช้กับสิริและการค้นหาด้วย Spotlight Search เพื่อให้ผู้ปกครองมั่นใจได้ว่าเด็กๆจะใช้งานมือถือได้อย่างปลอดภัย
/article-new/2021/08/iphone-csam-siri.jpg?lossy)
ที่มา macRumors