논문 링크: https://arxiv.org/abs/2307.09288 Abstract 70억 ~ 700억 개의 파라미터로 사전학습되고 fine-tuning된 LLM인 Llama 2 출시. fine tuning된 모델인 Llama 2-chat은 대화에 최적화되어 있음. 대부분의 벤치마크에서 다른 오픈소스 채팅 모델보다 성능이 뛰어남. helpfulness, safety에 대한 human evaluation에 따르면, closed source 모델을 대체할 수 있는 적합한 모델일 수 있음. 1. Introduction Llama2 : Llama1의 후속 버전. 공개된 데이터를 새롭게 조합하여 학습하였고, 사전학습 코퍼스를 40% 더 늘렸으며, context length를 2배로 늘림. Grouped-que..