Apple News

พนักงาน Apple แสดงความกังวลเกี่ยวกับแผนการตรวจจับ CSAM เป็นการภายใน

วันศุกร์ที่ 13 สิงหาคม 2021 00:43 น. PDT โดย Sami Fathi

ขณะนี้พนักงานของ Apple เข้าร่วมกลุ่มนักร้องประสานเสียงของบุคคลที่แจ้งข้อกังวลเกี่ยวกับแผนการสแกนของ Apple iPhone ห้องสมุดรูปภาพของผู้ใช้สำหรับ CSAM หรือสื่อการล่วงละเมิดทางเพศเด็ก โดยมีรายงานว่ามีการพูดถึงการใช้เทคโนโลยีดังกล่าวเป็นการภายในว่าเทคโนโลยีนี้สามารถนำมาใช้สแกนภาพถ่ายของผู้ใช้เพื่อหาเนื้อหาประเภทอื่นๆ ได้อย่างไร ตามรายงานจาก รอยเตอร์ .





apple park drone มิถุนายน 2018 2
ตาม รอยเตอร์ จำนวนพนักงานของ Apple ที่ไม่ระบุได้นำไปยังช่องทาง Slack ภายในเพื่อแจ้งข้อกังวลเกี่ยวกับการตรวจจับ CSAM โดยเฉพาะอย่างยิ่ง พนักงานมีความกังวลว่ารัฐบาลสามารถบังคับให้ Apple ใช้เทคโนโลยีเพื่อการเซ็นเซอร์โดยการค้นหาเนื้อหาอื่นที่ไม่ใช่ CSAM พนักงานบางคนกังวลว่า Apple กำลังทำลายชื่อเสียงด้านความเป็นส่วนตัวระดับแนวหน้าของอุตสาหกรรม

พนักงานของ Apple ท่วมช่อง Slack ภายในของ Apple ด้วยข้อความมากกว่า 800 ข้อความในแผนประกาศเมื่อสัปดาห์ที่แล้ว พนักงานที่ขอไม่ให้ระบุตัวตนบอกกับรอยเตอร์ หลายคนแสดงความกังวลว่าคุณลักษณะนี้อาจถูกใช้ประโยชน์โดยรัฐบาลที่กดขี่เพื่อค้นหาเนื้อหาอื่นสำหรับการเซ็นเซอร์หรือการจับกุม ตามที่คนงานที่เห็นกระทู้ยาวหลายวัน



การเปลี่ยนแปลงด้านความปลอดภัยในอดีตที่ Apple ได้ทำให้เกิดความกังวลในหมู่พนักงาน แต่ปริมาณและระยะเวลาของการอภิปรายครั้งใหม่นั้นน่าประหลาดใจ พนักงานกล่าว ผู้โพสต์บางคนกังวลว่า Apple กำลังทำลายชื่อเสียงระดับแนวหน้าในการปกป้องความเป็นส่วนตัว

รายงานระบุว่า พนักงาน Apple ที่มีบทบาทด้านความปลอดภัยของผู้ใช้ไม่ได้เป็นส่วนหนึ่งของการประท้วงภายใน

นับตั้งแต่มัน ประกาศเมื่อสัปดาห์ที่แล้ว , Apple ถูกวิพากษ์วิจารณ์เกี่ยวกับแผนการตรวจจับ CSAM ซึ่งคาดว่าจะเปิดตัวกับ iOS 15 และ iPadOS 15 ในฤดูใบไม้ร่วงนี้ ความกังวลส่วนใหญ่เกี่ยวกับวิธีที่เทคโนโลยีสามารถนำเสนอความลาดชันที่ลื่นสำหรับการใช้งานในอนาคตโดยรัฐบาลและระบอบการปกครองที่กดขี่

วิธีใส่คำบรรยายภาพใน iphone

Apple ได้ปฏิเสธแนวคิดที่ว่าเทคโนโลยีในอุปกรณ์ที่ใช้ในการตรวจจับวัสดุ CSAM สามารถนำมาใช้เพื่อวัตถุประสงค์อื่นได้ ใน เผยแพร่เอกสารคำถามที่พบบ่อย บริษัทกล่าวว่าจะปฏิเสธความต้องการดังกล่าวของรัฐบาลอย่างรุนแรง

รัฐบาลสามารถบังคับให้ Apple เพิ่มรูปภาพที่ไม่ใช่ CSAM ในรายการแฮชได้หรือไม่
Apple จะปฏิเสธข้อเรียกร้องดังกล่าว ความสามารถในการตรวจจับ CSAM ของ Apple สร้างขึ้นเพื่อตรวจจับภาพ CSAM ที่รู้จักซึ่งจัดเก็บไว้ในรูปภาพ iCloud เท่านั้น ซึ่งได้รับการระบุโดยผู้เชี่ยวชาญที่ NCMEC และกลุ่มความปลอดภัยของเด็กอื่นๆ เราต้องเผชิญกับความต้องการในการสร้างและปรับใช้การเปลี่ยนแปลงที่ได้รับคำสั่งจากรัฐบาล ซึ่งทำให้ความเป็นส่วนตัวของผู้ใช้ลดลง และได้ปฏิเสธความต้องการเหล่านั้นอย่างแน่วแน่ เราจะยังคงปฏิเสธพวกเขาต่อไปในอนาคต ขอให้เราชี้แจงให้ชัดเจน เทคโนโลยีนี้จำกัดเฉพาะการตรวจจับ CSAM ที่จัดเก็บไว้ใน iCloud และเราจะไม่ยอมรับคำขอของรัฐบาลในการขยาย นอกจากนี้ Apple จะดำเนินการตรวจสอบโดยเจ้าหน้าที่ก่อนที่จะรายงานต่อ NCMEC ในกรณีที่ระบบตั้งค่าสถานะภาพถ่ายที่ไม่ตรงกับภาพ CSAM ที่รู้จัก บัญชีจะไม่ถูกปิดใช้งานและจะไม่มีการรายงานไปยัง NCMEC

หนึ่ง จดหมายเปิดผนึก การวิพากษ์วิจารณ์ Apple และเรียกร้องให้ บริษัท หยุดทันที แผนการปรับใช้การตรวจจับ CSAM ได้รับลายเซ็นมากกว่า 7,000 รายการในขณะที่เขียน หัวหน้าของ WhatsApp ก็มี ชั่งน้ำหนักในการอภิปราย .

แท็ก: ความเป็นส่วนตัวของ Apple , คุณสมบัติความปลอดภัยของเด็กของ Apple