본문 바로가기

스타트업 투자/데이터 + 테크

패스트캠퍼스 환급챌린지 43일차 : 허깅페이스 TRL 파인튜닝

by Sungwook Choi 2025. 5. 13.

본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성하였습니다.

*_1. 학습 인증샷 4장 이상 포함
*_① 오늘자 날짜, 공부 시작 시각 포함 사진 1장

② 오늘자 날짜, 공부 종료 시각 포함 사진 1장

 

③ 1개 클립 수강 인증 사진 (강의장 목록 캡쳐, 강의 내용이 담긴 수강화면이 보이지 않도록) 1장

④ 학습 인증샷 1장 이상 (ex. 필기 촬영, 작업물, 등)

2. 학습 후기 700자 이상 (공백 제외)

  • 학습하기 
  • trainer = SFTTrainer( model=model, args=args, max_seq_length=max_seq_length, # 최대 시퀀스 길이 설정 train_dataset=train_dataset, data_collator=collate_fn, peft_config=peft_config, )

학습 시작

trainer.train() # 모델이 자동으로 허브와 output_dir에 저장됨

모델 저장

trainer.save_model() # 최종 모델을 저장

~

  • 학습 데이터 크기: 496개

모델 학습에 사용되는 전체 데이터 샘플의 수입니다. 이는 각 에포크마다 처리되는 전체 데이터 양

  • 에포크(epochs): 3회

전체 데이터셋을 처음부터 끝까지 반복해서 학습하는 횟수입니다. 즉, 모든 학습 데이터를 3번 반복해서 모델이 학습

  • 배치 크기(batch size): 2

한 번에 처리하는 데이터 샘플의 수입니다. 메모리 효율을 위해 전체 데이터를 작은 배치로 나누어 처리하며, 여기서는 2개씩 묶어서 처리

  • 누적 단계(accumulation steps): 2

모델을 실제로 업데이트하기 전에 여러 배치의 정보를 모으는 수입니다. 여기서는 2개의 배치(총 4개의 샘플)를 처리한 후에야 실제 모델 업데이트

  • 에포크 1회당 업데이트 횟수: 496 ÷ (2 × 2) = 124회

한 에포크에서 모델이 업데이트되는 횟수입니다. 전체 데이터 496개를 유효 배치 크기 4(배치 크기 2 × 누적 단계 2)로 나누면 124번의 업데이트

  • 총 업데이트 계산 방법: (데이터 크기 × 에포크) ÷ (배치 크기 × 누적 단계)

학습 과정 전체에서 발생하는 모델 업데이트의 총 횟수를 계산하는 공식입니다. 전체 처리 샘플 수를 유효 배치 크기로 나눕니다.

  • 총 업데이트 계산 과정: (496 × 3) ÷ (2 × 2) = 1,488 ÷ 4 = 372

3개의 에포크 동안 총 1,488개의 샘플이 처리되고, 유효 배치 크기인 4개의 샘플마다 한 번씩 모델이 업데이트되므로 총 372번의 모델 업데이트가 발생합니다.

url : https://abit.ly/lisbva

댓글