Skip to content

abzb1/cechallenge

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

18 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

cechallenge

삼성 CEChallenge 2023

사용한 환경이 권한상 docker를 사용할 수 없는 환경이라 conda를 사용함
conda 환경은 yaml파일로 업드로 해두었음 링크

기존 Llama v1 30B의 4-way TP 가중치를 조립 후 해체하여 4-way PP로 구성 HellaSwag dataset Validation set에 대해 1.44x 가속(5914s -> 4111s)

코드 사용법

conda 환경에서 torchrun.sh 파일을 이용하여 멀티프로세스 스폰
각각 inference_base의 torchrun.sh과 inference_pipelined의 torchrun.sh로 구성
실행인자에 data-path, tokenizer-path, ckpt-path를 명확히 지정하면 됨

PP 가중치

whole_model을 먼저 만들고 pp_model을 만들면 됨

서울 시립대학교 공과대학 실전문제연구단(2023/12 ~ 2024/02)과정에서 V2 추가

v2 70B도 추가 8-way TP to 8-way PP
HellaSwag 1.72X 가속 (7000s -> 4063s)