related iamge

놀라운 발견! AI 추론 모델, 자신감까지 정확하게 표현하다!

국내 연구진이 대규모 언어 모델(LLM)의 신뢰도 향상을 위한 획기적인 연구 결과를 발표했습니다. 연쇄적 사고 과정(CoT)을 활용한 추론 모델이 기존 모델보다 훨씬 높은 신뢰도 교정 성능을 보였으며, '느린 사고' 전략이 이러한 성능 향상의 핵심 요인임을 밝혔습니다. 이는 AI의 신뢰성을 높이고, 인간과의 협력을 강화하는 데 크게 기여할 것으로 기대됩니다.

related iamge

획기적인 발전! 신경 기호 접근 방식으로 LLM의 증명 생성 능력 향상

이스라엘 연구진이 제시한 신경 기호 접근 방식을 통해 LLM의 증명 생성 능력이 크게 향상되었으며, OpenAI o1 모델에서 58%-70%의 정확도 향상을 달성했습니다. 이는 신뢰할 수 있는 LLM 기반 시스템 구축에 중요한 진전을 의미합니다.

related iamge

코드 혼합 입력에 취약한 LLM의 안전성 문제: 새로운 연구 결과

대규모 언어 모델(LLM)의 안전성에 대한 우려가 커지고 있는 가운데, 최근 연구에서 코드 혼합 입력에 대한 LLM의 취약성이 심각하게 드러났습니다. 설명 가능성 기법을 통해 유해 행동의 원인을 분석하고, 문화적 맥락까지 고려한 이 연구는 LLM의 안전성 향상을 위한 중요한 시사점을 제공합니다.

related iamge

CtrlDiff: 동적 블록 예측 및 제어 가능한 생성으로 대규모 확산 언어 모델 강화

황치한과 Tang Hao 연구팀이 개발한 CtrlDiff는 강화학습과 분류기 기반 제어 메커니즘을 활용하여 대규모 확산 언어 모델의 한계를 극복하고, 동적이고 제어 가능한 텍스트 생성을 가능하게 하는 혁신적인 모델입니다. 자동 회귀 모델에 근접한 성능을 보이며, 다양한 작업에서 효과적인 조건부 텍스트 생성을 가능하게 합니다.

related iamge

AI가 직장 내 소통 혁신을 이끈다: 관리자들의 시각에서 본 AI 기반 대화 훈련

본 기사는 AI 기반 대화 훈련 시스템에 대한 관리자들의 인식을 조사한 연구 결과를 소개합니다. 연구진은 CommCoach라는 시스템을 통해 관리자들이 AI를 활용하여 의사소통 기술을 연습하는 방법과 AI 기반 훈련 시스템 설계의 중요한 요소들을 밝혀냈습니다. AI 기반 훈련 시스템의 발전은 직장 내 의사소통의 질적 향상과 조직 생산성 향상으로 이어질 수 있지만, AI의 편향성, 피드백의 일관성 등의 문제점을 해결하기 위한 지속적인 연구가 필요합니다.