related iamge

혁신적인 교차 언어 전이 학습: SALT의 등장

본 기사는 이승윤, 홍성태, 문현석, 임휘석 연구팀이 개발한 새로운 교차 언어 전이 학습 기술인 SALT에 대해 소개합니다. SALT는 기존 방법의 한계를 극복하고, 타겟 언어 PLM의 임베딩을 재활용하여 LLM의 표현 능력을 향상시키는 혁신적인 기술입니다. 다양한 실험을 통해 그 우수성이 입증되었으며, 특히 교차 언어 이해 분야에서 탁월한 성능을 보였습니다. SALT는 다국어 LLM의 발전과 교차 언어 이해 분야에 큰 기여를 할 것으로 기대됩니다.

related iamge

사용자의 정체성이 중요한 이유: LLM 기반 논리적 추천을 통한 주제와 사회적 역할의 연결

본 논문은 LLM을 활용하여 사용자의 사회적 역할과 행동 논리를 고려한 새로운 추천 시스템 TagCF를 제안합니다. LLM의 지식과 추론 능력을 활용하여 사용자의 동적이고 표현력 있는 지식을 반영하고, 사용자 행동 논리를 정제함으로써 추천 성능을 향상시키는 것을 실험적으로 검증하였습니다.

related iamge

GenKnowSub: 일반 지식 제거를 통한 LLM의 모듈성 및 재사용성 향상

본 논문은 LLM의 제로샷 일반화 문제를 해결하기 위해 일반 지식과 특정 작업 적응 간의 얽힘을 해소하는 새로운 모듈화 프레임워크인 GenKnowSub을 제시합니다. 다양한 언어의 일반 지식 LoRA를 활용하여 다국어 환경에서의 성능 향상과 약한 LLM에서의 일반화 가능성을 확인하였습니다.

related iamge

OmniThought: 방대한 사고 과정 데이터셋으로 대규모 추론 모델의 지평을 넓히다

중국과학원 자동화연구소 연구팀이 발표한 OmniThought는 200만 개의 CoT(연쇄적 사고) 과정을 포함한 대규모 데이터셋으로, 추론 상세도(RV)와 인지적 난이도(CD) 점수로 주석 처리되어 LRM(대규모 추론 모델) 훈련 효과를 향상시키는 데 기여합니다. 이를 통해 고성능 LRM 시리즈가 개발 및 공개되었으며, AI의 추론 능력 발전에 중요한 이정표를 제시합니다.

related iamge

혁신적인 협업 프롬프트 프레임워크 Cochain: LLM 에이전트의 새로운 지평을 열다

중국과학원 자동화연구소 연구진이 개발한 Cochain은 LLM 에이전트의 협업 문제를 해결하는 혁신적인 프레임워크로, 통합 지식 그래프와 프롬프트 트리를 활용하여 효율성과 비용 절감을 동시에 달성합니다. 다양한 데이터셋에서 우수한 성능을 검증받았으며, 소형 모델과의 조합을 통해 GPT-4를 능가하는 결과를 보였습니다.