2302.13971 Feb 27, 2023 cs.AI

LLaMA: 개방적이고 효율적인 기반 언어 모델

LLaMA: Open and Efficient Foundation Language Models

Hugo Touvron
Hugo Touvron
Citations: 61,053
h-index: 17
Thibaut Lavril
Thibaut Lavril
Citations: 42,813
h-index: 18
Gautier Izacard
Gautier Izacard
Citations: 25,583
h-index: 20
X. Martinet
X. Martinet
Citations: 48,475
h-index: 9
M. Lachaux
M. Lachaux
Citations: 42,415
h-index: 16
Timothée Lacroix
Timothée Lacroix
Citations: 25,902
h-index: 14
Baptiste Rozière
Baptiste Rozière
Citations: 24,513
h-index: 21
Naman Goyal
Naman Goyal
Citations: 125,984
h-index: 38
Eric Hambro
Eric Hambro
Citations: 19,967
h-index: 12
Faisal Azhar
Faisal Azhar
Citations: 21,956
h-index: 4
Aur'elien Rodriguez
Aur'elien Rodriguez
Citations: 48,455
h-index: 8
Armand Joulin
Armand Joulin
Citations: 89,566
h-index: 71
Edouard Grave
Edouard Grave
Citations: 60,955
h-index: 45
Guillaume Lample
Guillaume Lample
Citations: 41,140
h-index: 27

우리는 7B에서 65B 파라미터 규모의 기반 언어 모델 모음인 LLaMA를 소개합니다. 우리는 수조 개의 토큰으로 모델을 학습시켰으며, 독점적이고 접근 불가능한 데이터셋에 의존하지 않고 오직 공개된 데이터셋만을 사용하여 최첨단 모델을 학습시키는 것이 가능함을 보여줍니다. 특히 LLaMA-13B는 대부분의 벤치마크에서 GPT-3(175B)를 능가하며, LLaMA-65B는 최고의 모델인 Chinchilla-70B 및 PaLM-540B와 경쟁할 수 있는 성능을 갖추고 있습니다. 우리는 모든 모델을 연구 커뮤니티에 공개합니다.

Original Abstract

We introduce LLaMA, a collection of foundation language models ranging from 7B to 65B parameters. We train our models on trillions of tokens, and show that it is possible to train state-of-the-art models using publicly available datasets exclusively, without resorting to proprietary and inaccessible datasets. In particular, LLaMA-13B outperforms GPT-3 (175B) on most benchmarks, and LLaMA-65B is competitive with the best models, Chinchilla-70B and PaLM-540B. We release all our models to the research community.

18885 Citations
2019 Influential
30 Altmetric
23,073.0 Score

No Analysis Report Yet

This paper hasn't been analyzed by Gemini yet.

댓글

댓글을 작성하려면 로그인하세요.

아직 댓글이 없습니다. 첫 번째 댓글을 남겨보세요!