차근차근 한걸음씩 개발 일기

Meta AI Llama 정리 본문

인공지능/LLM 관련 내용

Meta AI Llama 정리

노승희 2023. 6. 11. 17:50

 

LLaMA(대형 언어 모델 메타 AI, Large Language Model Meta AI)은 Meta AI에서 2023년 2월에 발표한 대규모 언어 모델(LLM)이다.

 

2022년 5월에 OPT-175B를 발표했다. 그런데 OPT는 GPT3와 모델 크기는 같지만 성능이 많이 뒤쳐졌었다. 논문을 보면 이 모델이 왜 성능이 나오지 않을까에 대한 고민으로 가득하다. 그런 메타가 야심작으로 만든 모델이 Llama이다.

 

Model Architecture

 LLaMA는 Villia Transformer 구조에서에 아래와 같은 변경점을 두었다.

 

Pre-normalization (from GPT-3)

  • 학습 안정성을 개선하기 위해 각 transformer sub-layer의 입력을 normalization함(GPT-2부터 도입).
  • RMSNorm Normalizing 함수 사용

SwiGLU activation function (from PaLM)

  • 성능 개선을 위해 ReLU를 SwiGLU로 교체함

Rotary Embeddings(from GPTNeo)

  • 절대적인 positional embeddings을 제거하고 RoPE(Rotary Postional Embedding)을 사용함

Optimization Hyper-Parameters

Meta는 LLaMA 학습에 AdamW(Adam with decoupled weight decay) optimizer를 사용하였다.

AdamW optimizer

  • hyper-parameters: beta1=0.9, beta2=0.95
  • weight decay = 0.1, gradient clipping = 1.0
  • 2000 warmup steps

 

 

 

 

데이터셋

 

 

 비용

( 참고: https://devocean.sk.com/blog/techBoardDetail.do?ID=164601&boardType=techBlog)

 

LLaMA-65B을 학습하기 위해 449 MWh를 소모한다. 449MWh를 한전의 산업용(을) 요금 중에서 가장 비싼 요금(고압A: 선택III)을 적용하여 비용으로 환산하면 최대 50억원의 전기료를 납부해야 한다.

LLaMA 학습을 위해 사용된 GPU 서버가 256대이므로 DGX A-100을 약 2억으로 잡았을 때, 서버 비용만 512억원이다. 만일 LLaMA 학습 시 50억원의 전기료를 지출해야 한다면 LLaMA 학습을 10회 이상(from scratch 기준)하면 전체 서버 비용을 상회하는 엄청난 비용인 것이다. (물론 가장 비싼 요금으로 환산한 결과로 실제 전기료는 30~40억내 일 것으로 판단된다.)

위의 결과로 부터 전체 모델 서비스 비용에서 전기 요금이 차지하는 비중이 대단히 높은 것으로 예상된다.