착취2 보안 연구원, 애플의 CSAM 기능은 “비효율적이고 위험하다”고 밝혀 12명의 유명한 사이버 보안 전문가들이 NYTimes를 통해 iPhone의 아동 성착취 이미지를 찾아내기 위한 기능이 “위험한 기술”이라고 애플을 비난했습니다 이 내용은 애플과 EU가 국민의 스마트폰을 불법적으로 감시하는 방안을 검토했던 전문가들의 연구 결과에서 나온 내용이며 이는 정부의 감시를 부추길 수 있는 비효과적이고 위험한 기능이라고 말했습니다 지난 8월 애플의 CSAM 감지 기능은 총 3가지로 iCloud+ 포토에 업로드된 이미지 감지, iMessages에서 오고가는 사진 경고, Siri와 Spotlight에서 CSAM 관련 정보 제공이 있습니다 연구원들에 따르면, EU는 암호화된 스마트폰에서 아동 성착취 이미지는 물론 조직 범죄의 징후와 테러리스트 관련 이미지를 감지하기 위한 프로그램을 찾고 .. 2021. 10. 15. 애플, 아동 성범죄 보호를 위한 CSAM 기능 정식 출시 연기 애플이 사용자의 반발에 따라 지난달 발표했던 CSAM 기능의 출시를 연기했다고 밝혔습니다 애플이 계획했던 어린이 안전 기능에는 iCloud 사진에서 CSAM 스캔, iMessage에서 성적인 사진 삭제와 Siri 및 Spotlight에서 CSAM 관련 정보 제공으로 총 3가지였습니다 Update as of September 3, 2021: Previously we announced plans for features intended to help protect children from predators who use communication tools to recruit and exploit them and to help limit the spread of Child Sexual Abuse Material.. 2021. 9. 3. 이전 1 다음