Apple News

Apple ขอแนะนำคุณสมบัติใหม่ด้านความปลอดภัยสำหรับเด็ก รวมถึงการสแกนคลังรูปภาพของผู้ใช้เพื่อหาสื่อการล่วงละเมิดทางเพศที่เป็นที่รู้จัก

วันพฤหัสบดีที่ 5 สิงหาคม 2021 13:00 น. PDT โดย Joe Rossignol

แอปเปิ้ลวันนี้ แสดงตัวอย่างคุณสมบัติความปลอดภัยของเด็กใหม่ ที่จะมาถึงแพลตฟอร์มพร้อมการอัปเดตซอฟต์แวร์ในปลายปีนี้ บริษัทกล่าวว่าฟีเจอร์จะพร้อมใช้งานในสหรัฐอเมริกาเมื่อเปิดตัวเท่านั้น และจะขยายไปยังภูมิภาคอื่นๆ เมื่อเวลาผ่านไป





คุณลักษณะด้านความปลอดภัยในการสื่อสารของ iphone

ความปลอดภัยในการสื่อสาร

ประการแรก แอพ Messages บน iPhone, iPad และ Mac จะได้รับฟีเจอร์ความปลอดภัยในการสื่อสารแบบใหม่เพื่อเตือนเด็กๆ และผู้ปกครองเมื่อรับหรือส่งรูปภาพที่มีความโจ่งแจ้งทางเพศ Apple กล่าวว่าแอพ Messages จะใช้การเรียนรู้ของเครื่องในอุปกรณ์เพื่อวิเคราะห์ไฟล์แนบของรูปภาพ และหากภาพถ่ายถูกกำหนดให้มีความโจ่งแจ้งทางเพศ รูปภาพนั้นจะเบลอโดยอัตโนมัติและเด็กจะได้รับคำเตือน



วิธีตรวจสอบอายุการใช้งานแบตเตอรี่ของ beats wireless

เมื่อเด็กพยายามดูรูปภาพที่ถูกตั้งค่าสถานะว่าละเอียดอ่อนในแอป Messages พวกเขาจะได้รับการแจ้งเตือนว่ารูปภาพนั้นอาจมีส่วนของร่างกายที่เป็นส่วนตัว และรูปภาพนั้นอาจสร้างความเสียหายได้ ทั้งนี้ขึ้นอยู่กับอายุของเด็ก ผู้ปกครองจะมีตัวเลือกในการรับการแจ้งเตือนหากบุตรหลานดูภาพถ่ายที่มีความละเอียดอ่อน หรือหากพวกเขาเลือกที่จะส่งภาพทางเพศที่โจ่งแจ้งไปยังผู้ติดต่อรายอื่นหลังจากได้รับคำเตือน ทั้งนี้ขึ้นอยู่กับอายุของเด็ก

Apple กล่าวว่าฟีเจอร์ความปลอดภัยในการสื่อสารใหม่จะมาในการอัปเดต iOS 15, iPadOS 15 และ macOS Monterey ในปลายปีนี้สำหรับบัญชีที่ตั้งค่าเป็นครอบครัวใน iCloud Apple รับรองว่าการสนทนา iMessage จะยังคงได้รับการปกป้องด้วยการเข้ารหัสตั้งแต่ต้นทางถึงปลายทาง ทำให้ Apple ไม่สามารถอ่านการสื่อสารส่วนตัวได้

การสแกนภาพถ่ายเพื่อหาเนื้อหาเกี่ยวกับการล่วงละเมิดทางเพศเด็ก (CSAM)

ประการที่สอง เริ่มใช้ iOS 15 และ iPadOS 15 ในปีนี้ Apple จะสามารถตรวจจับรูปภาพที่เป็นที่รู้จักในเรื่องการล่วงละเมิดทางเพศเด็ก (CSAM) ที่จัดเก็บไว้ในรูปภาพ iCloud ทำให้ Apple สามารถรายงานกรณีเหล่านี้ไปยัง National Center for Missing and Exploited Children (NCMEC) ซึ่งเป็นองค์กรไม่แสวงหาผลกำไรที่ทำงานร่วมกับหน่วยงานบังคับใช้กฎหมายของสหรัฐอเมริกา

Apple กล่าวว่าวิธีการตรวจจับ CSAM ที่รู้จักได้รับการออกแบบโดยคำนึงถึงความเป็นส่วนตัวของผู้ใช้ แทนที่จะสแกนรูปภาพในคลาวด์ Apple กล่าวว่าระบบจะทำการจับคู่บนอุปกรณ์กับฐานข้อมูลของแฮชรูปภาพ CSAM ที่รู้จักซึ่งจัดทำโดย NCMEC และองค์กรความปลอดภัยเด็กอื่นๆ Apple กล่าวว่าจะเปลี่ยนฐานข้อมูลนี้เป็นชุดแฮชที่อ่านไม่ได้ซึ่งจัดเก็บไว้อย่างปลอดภัยในอุปกรณ์ของผู้ใช้

เทคโนโลยีการแฮชที่เรียกว่า NeuralHash จะวิเคราะห์รูปภาพและแปลงเป็นตัวเลขเฉพาะสำหรับรูปภาพนั้นตามข้อมูลของ Apple

'จุดประสงค์หลักของแฮชคือเพื่อให้แน่ใจว่าภาพที่เหมือนกันและภาพที่คล้ายคลึงกันจะส่งผลให้เกิดแฮชเดียวกัน ในขณะที่รูปภาพที่ต่างกันจะส่งผลให้เกิดแฮชที่ต่างกัน' Apple กล่าวในเอกสารไวท์เปเปอร์ 'Expanded Protections for Children' ฉบับใหม่ 'ตัวอย่างเช่น รูปภาพที่ถูกครอบตัดเล็กน้อย ปรับขนาดหรือแปลงจากสีเป็นขาวดำจะได้รับการปฏิบัติเหมือนกับภาพต้นฉบับและมีแฮชเหมือนกัน'

แผนภูมิการไหลของ apple csam
ก่อนที่รูปภาพจะถูกจัดเก็บใน iCloud Photos Apple กล่าวว่ากระบวนการจับคู่ในอุปกรณ์จะดำเนินการกับรูปภาพนั้นเทียบกับชุดแฮช CSAM ที่รู้จักซึ่งไม่สามารถอ่านได้ หากมีการแข่งขัน อุปกรณ์จะสร้างบัตรกำนัลความปลอดภัยการเข้ารหัส บัตรกำนัลนี้อัปโหลดไปยังรูปภาพ iCloud พร้อมกับรูปภาพ และเมื่อเกินเกณฑ์การจับคู่ที่ไม่เปิดเผย Apple จะสามารถตีความเนื้อหาของบัตรกำนัลสำหรับการจับคู่ CSAM จากนั้น Apple จะตรวจสอบแต่ละรายงานด้วยตนเองเพื่อยืนยันว่ามีรายการที่ตรงกัน ปิดใช้งานบัญชี iCloud ของผู้ใช้ และส่งรายงานไปยัง NCMEC Apple ไม่ได้เปิดเผยเกณฑ์ที่แน่นอน แต่รับรองว่า 'ระดับความถูกต้องสูงมาก' ที่บัญชีจะไม่ถูกตั้งค่าสถานะอย่างไม่ถูกต้อง

Apple กล่าวว่าวิธีการตรวจจับ CSAM ที่รู้จักนั้นให้ 'ประโยชน์ด้านความเป็นส่วนตัวที่สำคัญ' เหนือเทคนิคที่มีอยู่:

• ระบบนี้เป็นวิธีที่มีประสิทธิภาพในการระบุ CSAM ที่รู้จักซึ่งจัดเก็บไว้ในบัญชี iCloud Photos ในขณะที่ปกป้องความเป็นส่วนตัวของผู้ใช้
• ในกระบวนการนี้ ผู้ใช้ยังไม่สามารถเรียนรู้อะไรเกี่ยวกับชุดของรูปภาพ CSAM ที่รู้จักซึ่งใช้สำหรับการจับคู่ สิ่งนี้จะปกป้องเนื้อหาของฐานข้อมูลจากการใช้งานที่เป็นอันตราย
• ระบบมีความแม่นยำมาก โดยมีอัตราความผิดพลาดต่ำมากที่น้อยกว่าหนึ่งในหนึ่งล้านล้านบัญชีต่อปี
• ระบบมีการรักษาความเป็นส่วนตัวมากกว่าการสแกนบนคลาวด์อย่างมาก เนื่องจากจะรายงานเฉพาะผู้ใช้ที่มีคอลเลกชันของ CSAM ที่รู้จักซึ่งจัดเก็บไว้ในรูปภาพ iCloud เท่านั้น

เทคโนโลยีเบื้องหลังระบบของ Apple ค่อนข้างซับซ้อนและได้เผยแพร่ a สรุปทางเทคนิค พร้อมรายละเอียดเพิ่มเติม

'การปกป้องที่เพิ่มขึ้นของ Apple สำหรับเด็กคือตัวเปลี่ยนเกม เนื่องจากมีผู้คนจำนวนมากที่ใช้ผลิตภัณฑ์ของ Apple มาตรการด้านความปลอดภัยใหม่เหล่านี้จึงมีศักยภาพในการช่วยชีวิตเด็กที่ถูกล่อลวงทางออนไลน์และมีภาพที่น่าสยดสยองในสื่อการล่วงละเมิดทางเพศเด็ก' จอห์น คลาร์ก ประธานและซีอีโอของ National Center for Missing กล่าว & เด็กที่ถูกเอารัดเอาเปรียบ 'ที่ National Center for Missing & Exploited Children เรารู้ว่าอาชญากรรมนี้สามารถแก้ไขได้ถ้าเราแน่วแน่ในการอุทิศตนเพื่อปกป้องเด็ก เราทำได้เพียงเพราะพันธมิตรด้านเทคโนโลยีอย่าง Apple ก้าวขึ้นมาและทำให้การอุทิศตนของพวกเขาเป็นที่รู้จัก ความจริงก็คือความเป็นส่วนตัวและการคุ้มครองเด็กสามารถอยู่ร่วมกันได้ เราปรบมือให้ Apple และตั้งตารอที่จะทำงานร่วมกันเพื่อทำให้โลกนี้เป็นสถานที่ที่ปลอดภัยยิ่งขึ้นสำหรับเด็ก ๆ '

คำแนะนำ CSAM แบบขยายใน Siri และการค้นหา

iphone csam siri
ประการที่สาม Apple กล่าวว่าจะขยายคำแนะนำใน Siri และ Spotlight Search ในอุปกรณ์ต่างๆ โดยให้แหล่งข้อมูลเพิ่มเติมเพื่อช่วยให้เด็กและผู้ปกครองออนไลน์ได้อย่างปลอดภัยและรับความช่วยเหลือในสถานการณ์ที่ไม่ปลอดภัย ตัวอย่างเช่น ผู้ใช้ที่ถาม Siri ว่าสามารถรายงาน CSAM หรือการแสวงประโยชน์จากเด็กได้อย่างไร จะถูกชี้ไปที่แหล่งข้อมูลว่าจะส่งรายงานไปที่ใดและอย่างไร

การอัปเดตสำหรับ Siri และ Search กำลังจะมาในปลายปีนี้ในการอัปเดตเป็น iOS 15, iPadOS 15, watchOS 8 และ macOS Monterey ตามข้อมูลของ Apple

หมายเหตุ: เนื่องจากลักษณะทางการเมืองหรือสังคมของการอภิปรายเกี่ยวกับหัวข้อนี้ กระทู้สนทนาจึงอยู่ใน ข่าวการเมือง ฟอรั่ม สมาชิกฟอรัมและผู้เยี่ยมชมไซต์ทุกคนสามารถอ่านและติดตามกระทู้ได้ แต่การโพสต์จำกัดเฉพาะสมาชิกฟอรัมที่มีโพสต์อย่างน้อย 100 โพสต์

แท็ก: ความเป็นส่วนตัวของ Apple , คุณสมบัติความปลอดภัยของเด็กของ Apple