AI 음성 복제 도구의 문제점 👀
최근 Consumer Reports 에서 발표한
보고서에 따르면, 많은 음성
복제 도구들이 사용자의 보안
을 충분히 고려하지 않고 있다고
합니다.
특히 Descript, ElevenLabs, Lovo,
PlayHT, Resemble AI, Speechify
등의 도구들이 거론되었는데,
그 중 Descript와 Resemble AI만이
악용 방지를 위한 조치를 취하고
있다고 합니다.
사용자 인증의 문제 😮
나머지 도구들은 단지 사용자가
자신이 합법적으로 음성을 복제할
권리가 있다는 박스를 체크하게
하는 정도의 인증만 요구하고 있다고
합니다.
이런 방식은 허위 인증의 위험이
높습니다.
AI 음성 복제는 잘못 사용될 경우,
사기 범죄에 악용될 가능성이
크다는 점에서 심각한 문제로
지적되고 있습니다.
해결책은? 🤔
Consumer Reports의 정책 분석가인
Grace Gedye는 “우리의 평가에
따르면, 기업들이 기본적인 조치를
취함으로써 음성 복제의 악용을
막을 수 있다”고 말했습니다.
그러나 일부 기업들은 이런 조치를
취하지 않고 있는 것이 현실입니다.
음성 복제 기술이 발전할수록,
사용자들은 더욱 주의해야 합니다.
기술의 발전이 항상 긍정적인
결과만을 가져오는 것은 아니기
때문입니다.
자세한 내용은 TechCrunch 기사를
참고하세요.