OpenAI의 새로운 AI 안전 철학
OpenAI는 최근 AI 안전과 관련한
새로운 철학을 공개했어요.
하지만 이 문서가 논란의
중심에 서게 되었죠.
Miles Brundage라는
전 OpenAI의 정책 연구 책임자는
이 문서가 과거의 AI 시스템
배포 접근 방식을 왜곡하고
있다고 비판했어요. 😮
GPT-2의 사례
Brundage는 OpenAI가
2019년에 발표한 GPT-2가
현재의 철학과 일치한다고 주장합니다.
당시 GPT-2는 점진적으로
배포되었고, 그 과정에서
많은 교훈이 공유되었죠.
GPT-2는 당시 최첨단 기술이었고,
그 위험성 때문에 OpenAI는
소스 코드를 즉시 공개하지 않았어요.
하지만 이후에 점진적으로
공개를 시작했죠.
AI 안전과 상업적 압박
현재 OpenAI는 상업적 압박 속에서
빠른 제품 출시를 희생하면서까지
안전을 우선시해야 한다는
비판을 받고 있어요.
중국의 DeepSeek 등 경쟁자들의
압박이 커지고 있지만,
안전이 최우선이어야 한다는
의견이 많아요. 🤔
Brundage는 OpenAI가
안전보다 제품 출시를
더 우선시하고 있다고
우려하고 있어요.
결론
AI 기술의 발전 속도는
매우 빠르지만,
안전은 항상 우선시되어야 합니다.
Brundage의 우려처럼
AI 시스템의 안전은
항상 신중하게 고려해야 합니다.