Apple News

นักวิจัยมหาวิทยาลัยที่สร้างระบบการสแกน CSAM เรียกร้องให้ Apple ไม่ใช้เทคโนโลยี 'อันตราย'

วันศุกร์ที่ 20 สิงหาคม 2021 06:48 น. PDT โดย Sami Fathi

นักวิจัยจากมหาวิทยาลัยที่เคารพนับถือกำลังส่งเสียงระฆังเตือนเกี่ยวกับเทคโนโลยีเบื้องหลังแผนการของ Apple ในการสแกน iPhone คลังรูปภาพของผู้ใช้สำหรับ CSAM หรือสื่อการล่วงละเมิดทางเพศเด็ก โดยเรียกเทคโนโลยีนี้ว่า 'อันตราย'





ความเป็นส่วนตัวของแอปเปิ้ล
Jonanath Mayer ผู้ช่วยศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์และการประชาสัมพันธ์ที่ Princeton University รวมทั้ง Anunay Kulshrestha นักวิจัยจาก Princeton University Center for Information Technology Policy ทั้ง เขียน op-ed สำหรับ เดอะวอชิงตันโพสต์ โดยสรุปประสบการณ์ของพวกเขาด้วยการสร้างเทคโนโลยีการตรวจจับภาพ

นักวิจัยเริ่มโครงการเมื่อสองปีก่อนเพื่อระบุ CSAM ในบริการออนไลน์ที่เข้ารหัสแบบ end-to-end นักวิจัยตั้งข้อสังเกตว่าในพื้นที่ของตน พวกเขา 'รู้คุณค่าของการเข้ารหัสแบบ end-to-end ซึ่งปกป้องข้อมูลจากการเข้าถึงของบุคคลที่สาม' พวกเขากล่าวว่าความกังวลนั้นเป็นสิ่งที่ทำให้พวกเขาหวาดกลัวต่อ CSAM ที่ 'แพร่กระจายบนแพลตฟอร์มที่เข้ารหัส'



เวลาที่ดีที่สุดในการซื้อ airpods pro

Mayer และ Kulshrestha กล่าวว่าพวกเขาต้องการหาจุดกึ่งกลางสำหรับสถานการณ์: สร้างระบบที่แพลตฟอร์มออนไลน์สามารถใช้เพื่อค้นหา CSAM และปกป้องการเข้ารหัสแบบ end-to-end นักวิจัยตั้งข้อสังเกตว่าผู้เชี่ยวชาญในสาขานี้สงสัยถึงโอกาสของระบบดังกล่าว แต่พวกเขาก็สามารถที่จะสร้างมันขึ้นมาได้ และในกระบวนการนี้ก็พบปัญหาที่สำคัญ

เราพยายามค้นหาจุดกลางที่เป็นไปได้ ซึ่งบริการออนไลน์สามารถระบุเนื้อหาที่เป็นอันตรายในขณะที่รักษาการเข้ารหัสตั้งแต่ต้นทางถึงปลายทาง แนวคิดตรงไปตรงมา: หากมีผู้แบ่งปันเนื้อหาที่ตรงกับฐานข้อมูลของเนื้อหาที่เป็นอันตรายที่ทราบ บริการจะได้รับการแจ้งเตือน หากบุคคลแบ่งปันเนื้อหาที่ไร้เดียงสา บริการจะไม่เรียนรู้อะไรเลย ผู้คนไม่สามารถอ่านฐานข้อมูลหรือเรียนรู้ว่าเนื้อหาตรงกันหรือไม่ เนื่องจากข้อมูลดังกล่าวอาจเปิดเผยวิธีการบังคับใช้กฎหมายและช่วยให้อาชญากรหลบเลี่ยงการตรวจจับได้

ผู้สังเกตการณ์ที่มีความรู้โต้แย้งว่าระบบอย่างของเรานั้นยังห่างไกลจากความเป็นไปได้ หลังจากการเริ่มต้นที่ผิดพลาดหลายครั้ง เราก็สร้างต้นแบบที่ใช้งานได้ แต่เราพบปัญหาที่เห็นได้ชัด

ตั้งแต่ที่ Apple ประกาศเปิดตัวฟีเจอร์นี้ บริษัทก็ถูกโจมตี ด้วยความเป็นห่วง ว่าระบบที่อยู่เบื้องหลังการตรวจจับ CSAM สามารถใช้ในการตรวจจับภาพถ่ายรูปแบบอื่นตามคำร้องขอของรัฐบาลที่กดขี่ Apple ได้ปฏิเสธอย่างแข็งขันต่อความเป็นไปได้ดังกล่าว โดยกล่าวว่าจะปฏิเสธคำขอดังกล่าวจากรัฐบาล

อย่างไรก็ตาม ความกังวลเกี่ยวกับผลกระทบในอนาคตของเทคโนโลยีที่ใช้สำหรับการตรวจจับ CSAM นั้นมีอยู่ทั่วไป Mayer และ Kulshrestha กล่าวว่าความกังวลของพวกเขาเกี่ยวกับวิธีที่รัฐบาลสามารถใช้ระบบเพื่อตรวจจับเนื้อหาอื่นที่ไม่ใช่ CSAM ทำให้พวกเขา 'ถูกรบกวน'

ต้องอายุเท่าไหร่ถึงจะมี apple id

ตัวอย่างเช่น รัฐบาลต่างประเทศสามารถบังคับบริการให้กับผู้คนที่แบ่งปันคำพูดทางการเมืองที่ไม่ชอบใจ ไม่ใช่เรื่องสมมุติ: WeChat แอปรับส่งข้อความภาษาจีนยอดนิยม ใช้การจับคู่เนื้อหาเพื่อระบุเนื้อหาที่ไม่เห็นด้วยแล้ว อินเดียออกกฎเกณฑ์ในปีนี้ซึ่งอาจต้องมีการคัดกรองเนื้อหาที่วิพากษ์วิจารณ์นโยบายรัฐบาลล่วงหน้า รัสเซียเพิ่งปรับ Google, Facebook และ Twitter เนื่องจากการไม่ลบเนื้อหาการประท้วงเพื่อประชาธิปไตย

เราพบข้อบกพร่องอื่นๆ กระบวนการจับคู่เนื้อหาอาจมีผลบวกที่ผิดพลาด และผู้ใช้ที่ประสงค์ร้ายสามารถหลอกล่อระบบเพื่อให้ผู้ใช้ที่ไร้เดียงสาถูกตรวจสอบอย่างละเอียด

เรารู้สึกไม่สบายใจที่ได้ดำเนินการขั้นตอนที่ไม่เคยเห็นมาก่อนในวรรณคดีวิทยาการคอมพิวเตอร์: เราเตือนถึงการออกแบบระบบของเราเอง เรียกร้องให้มีการวิจัยเพิ่มเติมเกี่ยวกับวิธีการบรรเทาข้อเสียร้ายแรง....

Apple ยังคงแก้ไขข้อกังวลของผู้ใช้เกี่ยวกับแผนของตน เผยแพร่เอกสารเพิ่มเติม และ หน้าคำถามที่พบบ่อย . Apple ยังคงเชื่อว่าระบบตรวจจับ CSAM ซึ่งจะเกิดขึ้นบนอุปกรณ์ของผู้ใช้นั้นสอดคล้องกับค่านิยมความเป็นส่วนตัวที่มีมายาวนาน

แท็ก: ความเป็นส่วนตัวของ Apple , WashingtonPost.com , คุณสมบัติความปลอดภัยของเด็กของ Apple