LLM๊ณผ LVM์ SFT, GRPO, Pretrainํ๊ณ ์ ์ฒ๋ฆฌํ๋ ์ฝ๋๋ฅผ ์ ๋ฆฌํ github repo
git clone https://github.com/jp1924/LLM.git
docker compose up -d
Docker์ Compose Version: 27.3.1-build ce12230, v2.29.7
๊ทผ๋ฐ package ๋ฒ์ ์ด ๋น ๋ฅด๊ฒ ๋ฐ๋์ด์ ์คํ ์๋๋ฉด Dockerfile ์์ ํ ํ์๊ฐ ์์
flash-attn์ pypi์์ ๋ค์ด๋ฐ์์ ์ค์นํ๋ฉด ์ปดํ์ผ ํ๋๋ฐ ๋ง์ ์๊ฐ์ด ๊ฑธ๋ฆฌ์ง๋ง
flash-attn repo์์ ์ ๊ณตํ๋ whlํ์ผ์ ์ด๋ฏธ ์ปดํ์ผ์ด ๋์ด ์๊ธฐ ๋๋ฌธ์ ์ค์นํ๋๋ฐ ๋ง์ ์๊ฐ์ด ๊ฑธ๋ฆฌ์ง ์๋๋ค.
whl๋ก ์ค์นํ๋ ๊ฒฝ์ฐ ๋ค์ ๋ช
๋ น์ด๋ฅผ ์
๋ ฅํด์ ๊ฐ๋ฐํ๊ฒฝ์ ๋ฒ์ ์ ํ์ธํ ํ์๊ฐ ์๋ฐ.
python -c "import torch; print(f'torch version: {torch.version}'); print(f'cuda version: {torch.version.cuda}'); print(f'abi version: {torch.compiled_with_cxx11_abi()}')
์ดํ flash-attn repo๊ฐ์ ๋ณธ์ธ ํ๊ฒฝ์ ๋ง๋ flash-attn ์ค์นํ๋ฉด ๋๋ค.