แอปเปิ้ล ประกาศวันนี้ ว่าด้วยการเปิดตัวของ iOS 15 และ iPad 15 , มันจะเริ่มสแกน รูปภาพ iCloud ในสหรัฐอเมริกาเพื่อค้นหาสื่อการล่วงละเมิดทางเพศเด็ก (CSAM) ที่เป็นที่รู้จัก โดยมีแผนจะรายงานข้อค้นพบดังกล่าวไปยังศูนย์แห่งชาติเพื่อเด็กหายและถูกเอารัดเอาเปรียบ (NCMEC)
ก่อนหน้าที่ Apple จะลงรายละเอียดแผนงาน ข่าวของโครงการ CSAM ก็รั่วไหลออกมา และนักวิจัยด้านความปลอดภัยก็เริ่มแสดงความกังวลว่าจะใช้โปรโตคอลการสแกนรูปภาพใหม่ของ Apple ในอนาคตอย่างไร ภาวะเศรษกิจ .
Apple กำลังใช้ระบบ 'NeuralHash' เพื่อเปรียบเทียบรูปภาพ CSAM ที่รู้จักกับรูปภาพของผู้ใช้ iPhone ก่อนที่จะอัปโหลดไปยัง iCloud หากมีการแข่งขัน ภาพถ่ายนั้นจะถูกอัปโหลดด้วยบัตรกำนัลความปลอดภัยที่เข้ารหัส และเมื่อถึงเกณฑ์ที่กำหนด จะมีการตรวจสอบเพื่อตรวจสอบว่าบุคคลนั้นมี CSAM บนอุปกรณ์ของพวกเขาหรือไม่
วิธีลงเฟสไทม์ในทีวี
ปัจจุบัน Apple กำลังใช้เทคโนโลยีการสแกนภาพและจับคู่เพื่อค้นหาการล่วงละเมิดเด็ก แต่นักวิจัยกังวลว่าในอนาคต Apple อาจดัดแปลงให้สแกนหาภาพประเภทอื่นๆ ที่เกี่ยวข้องมากขึ้น เช่น ป้ายต่อต้านรัฐบาลที่ การประท้วง
ในชุดทวีต นักวิจัยการเข้ารหัส Johns Hopkins Matthew Green กล่าวว่าการสแกน CSAM เป็น 'ความคิดที่แย่มาก' เพราะในอนาคต การสแกนดังกล่าวอาจขยายไปถึงการสแกนภาพถ่ายที่เข้ารหัสแบบ end-to-end แทนที่จะเป็นเฉพาะเนื้อหาที่อัปโหลดไปยัง iCloud สำหรับเด็ก Apple เป็น ใช้คุณลักษณะการสแกนแยกต่างหากที่ค้นหาเนื้อหาทางเพศที่โจ่งแจ้งโดยตรงใน iMessages ซึ่งเข้ารหัสตั้งแต่ต้นทางถึงปลายทาง
Green ยังแสดงความกังวลเกี่ยวกับ hash ที่ Apple วางแผนที่จะใช้ เนื่องจากอาจมี 'การชนกัน' ซึ่งมีคนส่งไฟล์ที่ไม่เป็นอันตรายซึ่งแชร์แฮชกับ CSAM และอาจส่งผลให้เกิดแฟล็กเท็จ
ในส่วนของ Apple กล่าวว่าเทคโนโลยีการสแกนของตนมี 'ความแม่นยำสูงมาก' เพื่อให้แน่ใจว่าบัญชีจะไม่ถูกตั้งค่าสถานะอย่างไม่ถูกต้อง และรายงานจะได้รับการตรวจสอบด้วยตนเองก่อน iCloud บัญชีถูกปิดใช้งานและส่งรายงานไปยัง NCMEC
Green เชื่อว่าการใช้งานของ Apple จะผลักดันให้บริษัทเทคโนโลยีอื่นๆ นำเทคนิคที่คล้ายคลึงกันมาใช้ 'สิ่งนี้จะทำให้เขื่อนแตก' เขาเขียน 'รัฐบาลจะเรียกร้องจากทุกคน' เขาเปรียบเทียบเทคโนโลยีกับ 'เครื่องมือที่ระบอบเผด็จการได้นำไปใช้'
สิ่งเหล่านี้เป็นสิ่งที่ไม่ดี ฉันไม่ต้องการที่จะอยู่ข้างสื่อลามกเด็กเป็นพิเศษและฉันไม่ใช่ผู้ก่อการร้าย แต่ปัญหาคือการเข้ารหัสเป็นเครื่องมือที่ทรงพลังที่ให้ความเป็นส่วนตัว และคุณไม่สามารถมีความเป็นส่วนตัวที่เข้มงวดได้จริง ๆ ในขณะที่ยังสอดส่องทุกภาพที่ใคร ๆ ส่งมา — แมทธิวกรีน (@matthew_d_green) 5 สิงหาคม 2564
นักวิจัยด้านความปลอดภัย Alec Muffett ซึ่งเคยทำงานที่ Facebook กล่าวว่าการตัดสินใจของ Apple ในการใช้การสแกนภาพประเภทนี้เป็น 'ขั้นตอนใหญ่และถดถอยสำหรับความเป็นส่วนตัวของแต่ละบุคคล' 'Apple กำลังเดินกลับความเป็นส่วนตัวเพื่อเปิดใช้งานปี 1984' เขากล่าว
รอส แอนเดอร์สัน ศาสตราจารย์ด้านวิศวกรรมความปลอดภัยที่มหาวิทยาลัยเคมบริดจ์ กล่าวว่า 'แนวคิดนี้น่ากลัวอย่างยิ่ง' ที่อาจนำไปสู่ 'การเฝ้าระวังอุปกรณ์จำนวนมากแบบกระจาย'
ตามที่หลายคนได้ชี้ให้เห็นบน Twitter บริษัทเทคโนโลยีหลายแห่งทำการสแกนรูปภาพสำหรับ CSAM แล้ว Google, Twitter, Microsoft, Facebook และอื่นๆ ใช้วิธีแฮชรูปภาพเพื่อค้นหาและรายงานรูปภาพที่ทราบเกี่ยวกับการล่วงละเมิดเด็ก
และหากคุณสงสัยว่า Google สแกนภาพเพื่อหาภาพการทารุณกรรมเด็กหรือไม่ ฉันตอบว่าในเรื่องที่ฉันเขียนเมื่อแปดปีที่แล้ว: มันทำอย่างนั้น **ตั้งแต่ปี 2008** บางทีทุกคนอาจจะนั่งลงและสวมหมวกของคุณกลับเข้าไปใหม่ pic.twitter.com/ruJ4Z8SceY - ชาร์ลส์ อาร์เธอร์ (@charlesarthur) 5 สิงหาคม 2564
เป็นที่น่าสังเกตว่า Apple เคยเป็น แล้ว สแกนเนื้อหาบางส่วน สำหรับภาพการล่วงละเมิดเด็กก่อนการเปิดตัวโครงการ CSAM ใหม่ ในปี 2020 Jane Horvath ประธานเจ้าหน้าที่ฝ่ายความเป็นส่วนตัวของ Apple กล่าวว่า Apple ใช้เทคโนโลยีการคัดกรองเพื่อค้นหาภาพที่ผิดกฎหมาย จากนั้นจึงปิดการใช้งานบัญชีหากตรวจพบหลักฐานของ CSAM
คุณสามารถใช้บัตรของขวัญ iTunes เพื่ออะไรได้บ้าง
Apple ในปี 2019 อัปเดตนโยบายความเป็นส่วนตัว โปรดทราบว่าบริษัทจะสแกนเนื้อหาที่อัปโหลดเพื่อหา 'เนื้อหาที่อาจผิดกฎหมาย ซึ่งรวมถึงเนื้อหาเกี่ยวกับการแสวงประโยชน์ทางเพศจากเด็ก' ดังนั้นการประกาศในวันนี้จึงไม่ใช่เรื่องใหม่ทั้งหมด
หมายเหตุ: เนื่องจากลักษณะทางการเมืองหรือสังคมของการอภิปรายเกี่ยวกับหัวข้อนี้ กระทู้สนทนาจึงอยู่ใน ข่าวการเมือง ฟอรั่ม สมาชิกฟอรัมและผู้เยี่ยมชมไซต์ทุกคนสามารถอ่านและติดตามกระทู้ได้ แต่การโพสต์จำกัดเฉพาะสมาชิกฟอรัมที่มีโพสต์อย่างน้อย 100 โพสต์
แท็ก: ความเป็นส่วนตัวของ Apple , คุณสมบัติความปลอดภัยของเด็กของ Apple
โพสต์ยอดนิยม