Apple News

นักวิจัยด้านความปลอดภัยแสดงความกังวลเกี่ยวกับแผนการของ Apple ในการสแกนอิมเมจ iCloud แต่การฝึกฝนนั้นแพร่หลายไปแล้ว

วันพฤหัสบดี 5 สิงหาคม 2021 14:04 น. PDT โดย Juli Clover

แอปเปิ้ล ประกาศวันนี้ ว่าด้วยการเปิดตัวของ iOS 15 และ iPad 15 , มันจะเริ่มสแกน รูปภาพ iCloud ในสหรัฐอเมริกาเพื่อค้นหาสื่อการล่วงละเมิดทางเพศเด็ก (CSAM) ที่เป็นที่รู้จัก โดยมีแผนจะรายงานข้อค้นพบดังกล่าวไปยังศูนย์แห่งชาติเพื่อเด็กหายและถูกเอารัดเอาเปรียบ (NCMEC)





คุณสมบัติความปลอดภัยของเด็ก
ก่อนหน้าที่ Apple จะลงรายละเอียดแผนงาน ข่าวของโครงการ CSAM ก็รั่วไหลออกมา และนักวิจัยด้านความปลอดภัยก็เริ่มแสดงความกังวลว่าจะใช้โปรโตคอลการสแกนรูปภาพใหม่ของ Apple ในอนาคตอย่างไร ภาวะเศรษกิจ .

Apple กำลังใช้ระบบ 'NeuralHash' เพื่อเปรียบเทียบรูปภาพ CSAM ที่รู้จักกับรูปภาพของผู้ใช้ iPhone ก่อนที่จะอัปโหลดไปยัง iCloud หากมีการแข่งขัน ภาพถ่ายนั้นจะถูกอัปโหลดด้วยบัตรกำนัลความปลอดภัยที่เข้ารหัส และเมื่อถึงเกณฑ์ที่กำหนด จะมีการตรวจสอบเพื่อตรวจสอบว่าบุคคลนั้นมี CSAM บนอุปกรณ์ของพวกเขาหรือไม่



วิธีลงเฟสไทม์ในทีวี

ปัจจุบัน Apple กำลังใช้เทคโนโลยีการสแกนภาพและจับคู่เพื่อค้นหาการล่วงละเมิดเด็ก แต่นักวิจัยกังวลว่าในอนาคต Apple อาจดัดแปลงให้สแกนหาภาพประเภทอื่นๆ ที่เกี่ยวข้องมากขึ้น เช่น ป้ายต่อต้านรัฐบาลที่ การประท้วง

ในชุดทวีต นักวิจัยการเข้ารหัส Johns Hopkins Matthew Green กล่าวว่าการสแกน CSAM เป็น 'ความคิดที่แย่มาก' เพราะในอนาคต การสแกนดังกล่าวอาจขยายไปถึงการสแกนภาพถ่ายที่เข้ารหัสแบบ end-to-end แทนที่จะเป็นเฉพาะเนื้อหาที่อัปโหลดไปยัง ‌iCloud‌ สำหรับเด็ก Apple เป็น ใช้คุณลักษณะการสแกนแยกต่างหากที่ค้นหาเนื้อหาทางเพศที่โจ่งแจ้งโดยตรงใน iMessages ซึ่งเข้ารหัสตั้งแต่ต้นทางถึงปลายทาง

Green ยังแสดงความกังวลเกี่ยวกับ hash ที่ Apple วางแผนที่จะใช้ เนื่องจากอาจมี 'การชนกัน' ซึ่งมีคนส่งไฟล์ที่ไม่เป็นอันตรายซึ่งแชร์แฮชกับ CSAM และอาจส่งผลให้เกิดแฟล็กเท็จ

ในส่วนของ Apple กล่าวว่าเทคโนโลยีการสแกนของตนมี 'ความแม่นยำสูงมาก' เพื่อให้แน่ใจว่าบัญชีจะไม่ถูกตั้งค่าสถานะอย่างไม่ถูกต้อง และรายงานจะได้รับการตรวจสอบด้วยตนเองก่อน ‌iCloud‌ บัญชีถูกปิดใช้งานและส่งรายงานไปยัง NCMEC

Green เชื่อว่าการใช้งานของ Apple จะผลักดันให้บริษัทเทคโนโลยีอื่นๆ นำเทคนิคที่คล้ายคลึงกันมาใช้ 'สิ่งนี้จะทำให้เขื่อนแตก' เขาเขียน 'รัฐบาลจะเรียกร้องจากทุกคน' เขาเปรียบเทียบเทคโนโลยีกับ 'เครื่องมือที่ระบอบเผด็จการได้นำไปใช้'


นักวิจัยด้านความปลอดภัย Alec Muffett ซึ่งเคยทำงานที่ Facebook กล่าวว่าการตัดสินใจของ Apple ในการใช้การสแกนภาพประเภทนี้เป็น 'ขั้นตอนใหญ่และถดถอยสำหรับความเป็นส่วนตัวของแต่ละบุคคล' 'Apple กำลังเดินกลับความเป็นส่วนตัวเพื่อเปิดใช้งานปี 1984' เขากล่าว

รอส แอนเดอร์สัน ศาสตราจารย์ด้านวิศวกรรมความปลอดภัยที่มหาวิทยาลัยเคมบริดจ์ กล่าวว่า 'แนวคิดนี้น่ากลัวอย่างยิ่ง' ที่อาจนำไปสู่ ​​'การเฝ้าระวังอุปกรณ์จำนวนมากแบบกระจาย'

ตามที่หลายคนได้ชี้ให้เห็นบน Twitter บริษัทเทคโนโลยีหลายแห่งทำการสแกนรูปภาพสำหรับ CSAM แล้ว Google, Twitter, Microsoft, Facebook และอื่นๆ ใช้วิธีแฮชรูปภาพเพื่อค้นหาและรายงานรูปภาพที่ทราบเกี่ยวกับการล่วงละเมิดเด็ก


เป็นที่น่าสังเกตว่า Apple เคยเป็น แล้ว สแกนเนื้อหาบางส่วน สำหรับภาพการล่วงละเมิดเด็กก่อนการเปิดตัวโครงการ CSAM ใหม่ ในปี 2020 Jane Horvath ประธานเจ้าหน้าที่ฝ่ายความเป็นส่วนตัวของ Apple กล่าวว่า Apple ใช้เทคโนโลยีการคัดกรองเพื่อค้นหาภาพที่ผิดกฎหมาย จากนั้นจึงปิดการใช้งานบัญชีหากตรวจพบหลักฐานของ CSAM

คุณสามารถใช้บัตรของขวัญ iTunes เพื่ออะไรได้บ้าง

Apple ในปี 2019 อัปเดตนโยบายความเป็นส่วนตัว โปรดทราบว่าบริษัทจะสแกนเนื้อหาที่อัปโหลดเพื่อหา 'เนื้อหาที่อาจผิดกฎหมาย ซึ่งรวมถึงเนื้อหาเกี่ยวกับการแสวงประโยชน์ทางเพศจากเด็ก' ดังนั้นการประกาศในวันนี้จึงไม่ใช่เรื่องใหม่ทั้งหมด

หมายเหตุ: เนื่องจากลักษณะทางการเมืองหรือสังคมของการอภิปรายเกี่ยวกับหัวข้อนี้ กระทู้สนทนาจึงอยู่ใน ข่าวการเมือง ฟอรั่ม สมาชิกฟอรัมและผู้เยี่ยมชมไซต์ทุกคนสามารถอ่านและติดตามกระทู้ได้ แต่การโพสต์จำกัดเฉพาะสมาชิกฟอรัมที่มีโพสต์อย่างน้อย 100 โพสต์

แท็ก: ความเป็นส่วนตัวของ Apple , คุณสมบัติความปลอดภัยของเด็กของ Apple