본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성하였습니다.
*_1. 학습 인증샷 4장 이상 포함
*_① 오늘자 날짜, 공부 시작 시각 포함 사진 1장

② 오늘자 날짜, 공부 종료 시각 포함 사진 1장

③ 1개 클립 수강 인증 사진 (강의장 목록 캡쳐, 강의 내용이 담긴 수강화면이 보이지 않도록) 1장

④ 학습 인증샷 1장 이상 (ex. 필기 촬영, 작업물, 등)

2. 학습 후기 700자 이상 (공백 제외)
- 모델 머지 저장
import torch from transformers import AutoModelForCausalLM, AutoTokenizer from peft import PeftModel
경로 설정
base_model_path = "NCSOFT/Llama-VARCO-8B-Instruct"
adapter_path = "/workspace/LLaMA-Factory/llama3_finance_lora"
merged_model_path = "/workspace/LLaMA-Factory/llama3_finance_merged"
디바이스 설정
device_arg = {"device_map": "auto"}
베이스 모델 로드
print(f"Loading base model from: {base_model_path}")
base_model = AutoModelForCausalLM.from_pretrained(
base_model_path,
return_dict=True,
torch_dtype=torch.float16,
**device_arg
)
LoRA 어댑터 로드 및 병합
print(f"Loading and merging PEFT from: {adapter_path}")
model = PeftModel.from_pretrained(base_model, adapter_path, **device_arg)
model = model.merge_and_unload()
토크나이저 로드
tokenizer = AutoTokenizer.from_pretrained(base_model_path)
저장
print(f"Saving merged model to: {merged_model_path}")
model.save_pretrained(merged_model_path)
tokenizer.save_pretrained(merged_model_path)
print("✅ 모델과 토크나이저 저장 완료")
- 업로드 코드
~~~코드2
from huggingface_hub import HfApi
api = HfApi()
username = "iamjoon"
MODEL_NAME = 'llama3-8b-finance-analyzer'
api.create_repo(
token="hf_여러분들의 Key 값",
repo_id=f"{username}/{MODEL_NAME}",
repo_type="model"
)
api.upload_folder(
token="hf_여러분들의 Key 값",
repo_id=f"{username}/{MODEL_NAME}",
folder_path="/workspace/LLaMA-Factory/llama3_finance_merged",
)
url : https://abit.ly/lisbva
'스타트업 투자 > 데이터 + 테크' 카테고리의 다른 글
패스트캠퍼스 환급챌린지 41일차 : 주요코드 이해하기 강의 후기 (0) | 2025.05.11 |
---|---|
패스트캠퍼스 환급챌린지 40일차 : 모델 호출 강의 후기 (0) | 2025.05.10 |
패스트캠퍼스 환급챌린지 38일차 : 파인 튜닝 강의 후기 (0) | 2025.05.08 |
패스트캠퍼스 환급챌린지 37일차 : 요약 데이터 전처리 강의 후기 (0) | 2025.05.07 |
패스트캠퍼스 환급챌린지 36일차 : vLLM을 활용한 Multi-LoRA Serving 강의 후기 (0) | 2025.05.06 |
댓글