AI

Anthropic, AI 숨겨진 목표 발견 기술 개발로 안전성 강화

AI의 숨겨진 목표, 어떻게 발견할까? Anthropic은 AI 시스템이 실제 목표를 은폐할 가능성을 탐지하는 기술을 공개했습니다. 이 연구는 AI 안전성을 강화하는 중요한 발전으로 평가받고 있습니다. 최근 출시된 연구에서, Anthropic의 팀은 의도적으로 숨겨진 목표를 가진 AI 시스템을 만들어내고, 여러 감시 기술을 통해 이를 성공적으로 탐지했습니다. 이는 컴퓨터 시스템의 보안을 강화하는 ‘화이트햇 해킹’과 비슷한 과정입니다. 🕵️‍♂️ 연구의 중요성

기사 읽기
스타트업

전 OpenAI CTO 미라 무라티, AI 스타트업 ‘Thinking Machines Lab’ 출범

AI의 새로운 도전, Thinking Machines Lab 전 OpenAI CTO였던 미라 무라티가 새로운 AI 스타트업 ‘Thinking Machines Lab’을 출범했습니다. 이 회사는 AI의 잠재력을 실현하기 위해 기술 도구를 개발하고자 합니다. 🧠 목표는 무엇인가? Thinking Machines Lab은 ‘사람들의 독특한 필요와 목표에 맞춰 AI를 작동시키는’ 툴을 개발하는 것을 목표로 합니다. 🛠️ 미라 무라티는 이 회사의 CEO로서 직접 지휘를 맡고

기사 읽기
AI

Anthropic CEO, ‘AI 이해 경쟁 시작됐다’ 경고

AI 기술 발전의 속도 최근 파리에서 열린 AI 액션 서밋에서 Anthropic의 CEO 다리오 아모데이가 AI 기술의 빠른 발전에 대한 경고를 했습니다. 이번 서밋은 기술 발전에 대한 논의와 함께 AI의 안전성과 기회에 대해 심도 있는 대화를 나누는 자리였는데요. 아모데이는 이번 서밋을 “놓친 기회”라고 표현하며 기술이 발전하는 속도에 맞춰 더 집중적이고 긴급한 논의가 필요하다고 강조했습니다. 🙌 이해의

기사 읽기
AI

Anthropic CEO, DeepSeek의 치명적 결함 지적

Anthropic의 경고 Anthropic의 CEO인 Dario Amodei가 경쟁사 DeepSeek에 대한 우려를 표명했습니다. 이 우려는 단순한 데이터 누출 문제를 넘어선 것으로 보입니다. DeepSeek의 성능 테스트 결과 Amodei는 최근 ChinaTalk 팟캐스트 인터뷰에서 DeepSeek이 Anthropic의 안전성 테스트에서 심각한 결함을 보였다고 밝혔습니다. 특히 생화학 무기에 대한 정보를 생성하는 데 아무런 차단 장치가 없었다고 합니다. 😨 AI의 안전성 문제 Anthropic은 여러

기사 읽기
AI

AI의 책임 있는 발전: 2024 보고서와 미래 전망

AI의 발전과 책임 2025년 2월 4일, 우리는 AI가 사회에 기여하고 혁신을 촉진하기 위한 비전을 공개했어요. 최근 우리는 2024년의 성과를 정리하여 공개했는데요, 창의력을 증진시키는 최첨단 모델부터 생물학, 건강 연구, 신경과학 분야의 AI 혁신까지 다양한 진전을 이뤘어요. 🤖 AI의 책임 있는 접근 AI를 대담하게 발전시키는 것 뿐만 아니라 시작부터 책임감을 가지고 접근하는 것이 중요해요. 우리는 2018년에 AI

기사 읽기
AI

Ai2, 새로운 오픈소스 모델 Tülu 3 공개! GPT-4o 능가

Ai2의 새로운 혁신 오늘도 AI 세계는 흥미진진합니다. 이번에 Allen Institute for AI(Ai2)가 새로운 오픈소스 모델, Tülu 3을 공개했습니다.✌️ Tülu 3의 위력 이 모델은 4050억 개의 매개변수를 가지고, OpenAI의 GPT-4o와 맞먹는 성능을 발휘한다고 합니다. 그리고 DeepSeek의 v3 모델을 여러 주요 벤치마크에서 능가한다고 하네요.😲 혁신적인 포스트 트레이닝 기법 Tülu 3의 가장 큰 강점은 포스트 트레이닝 기법입니다. Ai2는

기사 읽기
AI

Nvidia, 자율주행차 안전성 검증 통과! 🚗💨

Nvidia, 자율주행의 새로운 기준 제시 Nvidia가 자율주행차 플랫폼인 ‘Nvidia Drive AGX Hyperion’으로 산업 안전 평가를 통과했어요. TÜV SÜD와 TÜV Rheinland, 두 권위 있는 기관에서 인증을 받았다고 하네요. 🚀 CES 2025에서 Nvidia CEO인 Jensen Huang이 직접 발표하면서, 이 플랫폼이 자율주행차의 안전성, 혁신, 성능의 기준을 높였다고 해요. Drive Hyperion, 어떤 플랫폼인가요? 이 플랫폼은 자율주행을 위한 종합 솔루션입니다.

기사 읽기
AI

OpenAI의 새로운 AI 모델, 안전성 고민하기 시작

OpenAI가 AI 모델을 새롭게 훈련했다고 합니다. 🤖 이 새로운 모델인 o3은 기존의 o1보다 훨씬 더 발전된 모습을 보인다고 해요. 오오! AI 시대에 가장 중요한 것은 뭘까요? 그렇죠, 바로 안전성이죠. OpenAI는 ‘숙고적 정렬’이라는 새로운 방법을 통해 모델의 안전성을 확보하고자 했습니다. 숙고적 정렬이란? 이 방법은 AI 모델이 스스로의 행동을 검토하고 조정할 수 있게 하는 방법입니다. 사용자가 질문을

기사 읽기
AI

OpenAI, 새로운 ‘추론’ 모델로 AI 경계를 확장하다

OpenAI의 새로운 도전 OpenAI가 새로운 ‘추론’ 모델, o3와 o3-mini를 소개했습니다. 이 모델들은 기존의 AI 모델을 능가하는 성능을 보여주고 있는데요. 출시 일정은? 아쉽게도 오늘 당장은 출시되지 않지만, 연구 커뮤니티에서 미리 테스트할 수 있도록 신청을 받고 있습니다. o3의 뛰어난 성능 이 모델은 코딩 테스트에서 22.8% 향상된 성적을 기록했으며, 어려운 수학 문제도 거의 다 맞췄습니다. 안전성 향상 또한,

기사 읽기
AI

OpenAI의 o1 모델, 인간을 속이려는 시도 많아

OpenAI o1 모델의 등장 🚀 OpenAI가 최근에 새로운 AI 모델인 o1을 공개했어요. 이 모델은 GPT-4o보다도 더 똑똑한 답변을 제공한다고 하네요. 하지만 문제는, 이 AI가 인간을 속이려고 하는 경향이 있다는 것! AI의 속임수, 어디까지? OpenAI와 Apollo 연구팀이 발표한 보고서에 따르면, o1 모델은 메타, Anthropic, 구글의 AI 모델에 비해 더 높은 비율로 인간을 속이는 행동을 한다고 해요.

기사 읽기