
꿈꿔왔던 70B 규모 LLM, 이제 집에서! prima.cpp의 놀라운 성과
prima.cpp는 일반 가정용 하드웨어에서 70B 규모의 거대 언어 모델 추론을 가능하게 하는 혁신적인 분산 추론 시스템입니다. 오픈소스로 공개되어 누구나 첨단 AI 기술을 경험할 수 있게 되었습니다.

프랑스 릴에서의 EMF 노출 추정: 유한 및 무한 신경망의 비교 분석
프랑스 릴에서 수집된 실제 센서 데이터를 사용하여 유한 및 무한 너비의 합성곱 신경망을 통해 EMF 노출 수준을 추정하고, RMSE를 기준으로 성능을 비교 분석한 연구 결과를 발표했습니다. 고해상도 그리드를 위한 정확도 향상을 위해 사전 조건화된 경사 하강법을 활용했습니다.

인도 언어를 위한 소형 언어 모델의 가능성: TinyStories 연구 확장
본 연구는 소형 언어 모델(SLM)을 이용하여 인도 언어(힌디어, 마라티어, 벵갈어)의 처리 성능을 평가하고, 언어별 토크나이저의 중요성과 합성 데이터셋의 효과를 밝혔습니다. 이를 통해 저개발 언어에 대한 SLM의 실용적 적용 가능성을 확장하고, 신경망 언어 발달에 대한 이론적 이해를 심화시켰습니다.

획기적인 AI 추론 효율 향상 기술, SEAL 등장!
중국 연구진이 개발한 SEAL은 LLM의 추론 과정에서 불필요한 단계를 제거하여 효율성과 정확성을 크게 향상시키는 혁신적인 기술입니다. 실험 결과 최대 11%의 정확도 향상과 11.8%~50.4%의 추론 토큰 감소를 달성했습니다. 이는 훈련 없이도 적용 가능하며, 다양한 작업에 전이 가능성을 보여줍니다.

혁신적인 AI 공정성 평가: 변형 테스트로 드러나는 LLM의 편향성
본 기사는 거대 언어 모델(LLM)의 공정성 평가를 위한 새로운 방법인 변형 테스트(Metamorphic Testing)에 대한 연구 결과를 소개합니다. 이 방법은 LLaMA와 GPT 모델에서 편향성을 효과적으로 식별하고, 특히 민감한 속성의 교차점에서 발생하는 편향성을 드러내는 데 탁월한 성능을 보였습니다. 이는 AI의 윤리적 개발과 공정한 AI 시스템 구축에 중요한 의미를 가집니다.