AI

AI 모델, 적은 데이터로도 충분히 학습 가능?

새로운 연구 결과 공개 🎓\n\n상하이 교통대학교의\n연구자들이 흥미로운\n사실을 발견했어요.\n바로 대규모 언어 모델\n(LLM)이 방대한 데이터가\n아니라 소수의 잘 구성된\n예제로도 복잡한\n추론 작업을 수행할 수\n있다는 점이죠. \n\n## ‘Less is More’ 접근법 💡\n\n기존에는 수 만 개의\n훈련 사례가 필요하다고\n생각했지만, 이번 연구는\n’적게, 그러나 정교하게’\n훈련하면 된다는\n사실을 보여주고 있어요.\n이 방법은 모델의\n사전 학습 단계에서\n얻은 지식을\n최대화하게 해줍니다.\n\n## 데이터 효율성의 향상 🚀\n\n연구팀은 LIMO라는\n새로운 개념을 제안합니다.\n이 방법을 통해 수백

기사 읽기
AI

OpenAI, 새로운 ‘추론’ 모델로 AI 경계를 확장하다

OpenAI의 새로운 도전 OpenAI가 새로운 ‘추론’ 모델, o3와 o3-mini를 소개했습니다. 이 모델들은 기존의 AI 모델을 능가하는 성능을 보여주고 있는데요. 출시 일정은? 아쉽게도 오늘 당장은 출시되지 않지만, 연구 커뮤니티에서 미리 테스트할 수 있도록 신청을 받고 있습니다. o3의 뛰어난 성능 이 모델은 코딩 테스트에서 22.8% 향상된 성적을 기록했으며, 어려운 수학 문제도 거의 다 맞췄습니다. 안전성 향상 또한,

기사 읽기
AI

알리바바, QwQ 모델로 OpenAI 도전자

알리바바의 혁신적 모델, QwQ 등장 🚀 중국의 거대 전자상거래 기업 알리바바가 새로운 모델을 공개했어요. 이름하여 ‘Qwen with Questions’, 줄여서 QwQ! 오픈 소스로 공개되어 OpenAI의 o1 미리보기 모델에 도전장을 내밀었죠. QwQ는 대형 추론 모델로서 수학과 코딩처럼 논리적 추론과 계획이 필요한 작업에 적합하다고 해요. QwQ의 성능과 한계 🌟 알리바바의 테스트에 따르면, QwQ는 AIME와 MATH 벤치마크에서 o1-preview를 능가했어요.

기사 읽기
AI

애플 연구팀, AI 논리적 추론의 치명적 결함 발견

애플의 놀라운 발견 🍏 애플의 AI 연구팀이 새로운 연구를 통해 대형 언어 모델의 논리적 추론 능력에서 중대한 약점을 발견했습니다. 🤔 이 연구는 arXiv에 게재되었으며, 애플이 오픈AI, 메타 등의 선도적인 개발자들의 언어 모델을 평가한 결과를 다루고 있습니다. 패턴 매칭의 한계 조금만 질문의 표현을 바꿔도 모델의 성능이 크게 달라질 수 있다는 사실이 드러났습니다. 이는 논리적 일관성이 필요한

기사 읽기