애플의 CSAM 탐지 시스템
애플이 최근 소송에 휘말렸습니다. 사유는 iCloud의 아동 성학대 자료(CSAM) 탐지 시스템을 포기했다는 것입니다.
이 시스템은 2021년에 처음 발표되었고, 애플은 아동 보호를 위한 혁신적 설계를 내놓았다고 자랑했죠. 하지만 이 시스템은 결국 시행되지 않았습니다. 😮
보안과 프라이버시의 딜레마
애플은 이 시스템이 보안과 프라이버시를 침해할 수 있다는 우려 때문에 포기했다고 합니다. 보안 및 프라이버시 옹호자들은 이 시스템이 정부 감시의 백도어 역할을 할 수 있다고 주장했죠.
이러한 반발에 애플은 시스템을 도입하지 않았고, 이는 현재 소송의 핵심 이슈가 되었습니다.
소송의 배경
소송을 제기한 여성은 가명으로 등록되어 있으며, 그녀는 유년 시절 친척에게 학대를 당하고 그 이미지가 온라인에 유포되었다고 주장합니다. 😢
이 사건으로 인해 그녀는 여전히 많은 법 집행 기관으로부터 관련 통지를 받고 있다고 합니다.
이번 소송은 2,680명의 피해자들이 보상을 받을 수 있는 가능성을 열어두고 있습니다.
애플의 입장
애플은 현재 이런 범죄를 막기 위한 혁신을 시급히 추진 중이라고 밝혔습니다. 하지만 모든 사용자의 보안과 프라이버시를 침해하지 않는 방법으로 진행 중이라고 말했습니다.
애플의 대변인은 “우리는 사용자의 보안과 프라이버시를 절대 타협하지 않을 것입니다”라고 강조했습니다.