12명의 유명한 사이버 보안 전문가들이 NYTimes를 통해 iPhone의 아동 성착취 이미지를 찾아내기 위한 기능이 “위험한 기술”이라고 애플을 비난했습니다
이 내용은 애플과 EU가 국민의 스마트폰을 불법적으로 감시하는 방안을 검토했던 전문가들의 연구 결과에서 나온 내용이며 이는 정부의 감시를 부추길 수 있는 비효과적이고 위험한 기능이라고 말했습니다
지난 8월 애플의 CSAM 감지 기능은 총 3가지로 iCloud+ 포토에 업로드된 이미지 감지, iMessages에서 오고가는 사진 경고, Siri와 Spotlight에서 CSAM 관련 정보 제공이 있습니다
연구원들에 따르면, EU는 암호화된 스마트폰에서 아동 성착취 이미지는 물론 조직 범죄의 징후와 테러리스트 관련 이미지를 감지하기 위한 프로그램을 찾고 있다고 밝혔습니다
연구원들은 “법을 준수하는 시민들을 감시하고 범죄 시도에 저항하는 것이 국가 안보의 우선 순위여야 한다”고 말하며 EU가 계획하고 있는 일의 위험성을 알리기 위해 연구 결과를 발표한다고 밝혔습니다
애플은 iOS 15, iPadOS 15, macOS Monterey에서 아동의 안전을 위해 CSAM 탐지 기술을 내장하기로 결정한 것에 대하여 사용자, 시민 단체, 보안 전문가, 학계, 정치인, 내부 직원들로부터 심각한 비난을 받았습니다
애플은 CSAM 탐지 기술 도입을 발표한 뒤 사용자들의 궁금증을 해결하기 위해 세부 정보, FAQ를 공개했으며 여러 공식 문서, 회사 경영진과 인터뷰 등을 통해 오해를 풀고 사용자를 안심시키기 위해 노력했습니다
결국 애플은 여러 비난을 받아들이고 지난 9월 3일 CSAM 탐지 기술 도입을 연기했습니다
하지만 어떤 부분을 완화시키고 해결할지는 밝히지 않았습니다
'Apple > Others' 카테고리의 다른 글
신형 MacBook Pro 14인치 세계 최초 언박싱 영상 (0) | 2021.10.23 |
---|---|
애플, AirPods Pro 조용히 잠수함 패치 (0) | 2021.10.19 |
AirPods 라인업 가격 재정비 (0) | 2021.10.19 |
“나이키 바운스” 워치 페이스는 이전 세대의 Apple Watch Nike에서도 사용 가능 (0) | 2021.10.16 |
Apple Watch Series 7은 홍보 이미지만큼 드라마틱하게 변해보이지 않아 (0) | 2021.10.08 |
댓글