본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성하였습니다.
*_1. 학습 인증샷 4장 이상 포함
*_① 오늘자 날짜, 공부 시작 시각 포함 사진 1장
② 오늘자 날짜, 공부 종료 시각 포함 사진 1장
③ 1개 클립 수강 인증 사진 (강의장 목록 캡쳐, 강의 내용이 담긴 수강화면이 보이지 않도록) 1장
④ 학습 인증샷 1장 이상 (ex. 필기 촬영, 작업물, 등)
2. 학습 후기 700자 이상 (공백 제외)
- 학습하기
trainer = SFTTrainer( model=model, args=args, max_seq_length=max_seq_length, # 최대 시퀀스 길이 설정 train_dataset=train_dataset, data_collator=collate_fn, peft_config=peft_config, )
학습 시작
trainer.train() # 모델이 자동으로 허브와 output_dir에 저장됨
모델 저장
trainer.save_model() # 최종 모델을 저장
~
- 학습 데이터 크기: 496개
모델 학습에 사용되는 전체 데이터 샘플의 수입니다. 이는 각 에포크마다 처리되는 전체 데이터 양
- 에포크(epochs): 3회
전체 데이터셋을 처음부터 끝까지 반복해서 학습하는 횟수입니다. 즉, 모든 학습 데이터를 3번 반복해서 모델이 학습
- 배치 크기(batch size): 2
한 번에 처리하는 데이터 샘플의 수입니다. 메모리 효율을 위해 전체 데이터를 작은 배치로 나누어 처리하며, 여기서는 2개씩 묶어서 처리
- 누적 단계(accumulation steps): 2
모델을 실제로 업데이트하기 전에 여러 배치의 정보를 모으는 수입니다. 여기서는 2개의 배치(총 4개의 샘플)를 처리한 후에야 실제 모델 업데이트
- 에포크 1회당 업데이트 횟수: 496 ÷ (2 × 2) = 124회
한 에포크에서 모델이 업데이트되는 횟수입니다. 전체 데이터 496개를 유효 배치 크기 4(배치 크기 2 × 누적 단계 2)로 나누면 124번의 업데이트
- 총 업데이트 계산 방법: (데이터 크기 × 에포크) ÷ (배치 크기 × 누적 단계)
학습 과정 전체에서 발생하는 모델 업데이트의 총 횟수를 계산하는 공식입니다. 전체 처리 샘플 수를 유효 배치 크기로 나눕니다.
- 총 업데이트 계산 과정: (496 × 3) ÷ (2 × 2) = 1,488 ÷ 4 = 372
3개의 에포크 동안 총 1,488개의 샘플이 처리되고, 유효 배치 크기인 4개의 샘플마다 한 번씩 모델이 업데이트되므로 총 372번의 모델 업데이트가 발생합니다.
url : https://abit.ly/lisbva
'스타트업 투자 > 데이터 + 테크' 카테고리의 다른 글
패스트캠퍼스 환급챌린지 45일차 : RAG 파인튜닝 (0) | 2025.05.15 |
---|---|
패스트캠퍼스 환급챌린지 44일차 : 모델 호출 (0) | 2025.05.14 |
패스트캠퍼스 환급챌린지 42일차 : 데이터 전처리 (0) | 2025.05.12 |
패스트캠퍼스 환급챌린지 41일차 : 주요코드 이해하기 (0) | 2025.05.11 |
패스트캠퍼스 환급챌린지 40일차 : 모델 호출 (0) | 2025.05.10 |
댓글