티스토리 뷰

LLM/Fine Tuning

PEFT

4567은 소수 2024. 4. 14. 16:19

PEFT는 huggingface에서 작업 중인 Parameter-Efficient Fine-Tuning, 즉 효율적인 파라미터 파인 튜닝입니다. 

 

Fine Tuning이란, 대부분의 일반 사용자, 개발자 입장에서 llama, gpt 같은 대규모 LLM 자체를 만드는 것은 사실상 불가능하기 때문에, 기존 LLM의 파라미터를 내가 원하는 분야에 특화되도록 파라미터 튜닝을 하는 것을 의미합니다.

 

PEFT는 이러한 Fine Tuning을 좀 더 쉽게 할 수 있도록 huggingface에서 제공해주는 라이브러리입니다.

 

주요 document는 아래에서 확인 가능하며,

https://huggingface.co/docs/peft/index

 

PEFT

🤗 Accelerate integrations

huggingface.co

 

소스코드 내용은 아래 github에서 확인 가능합니다.

https://github.com/huggingface/peft

 

GitHub - huggingface/peft: 🤗 PEFT: State-of-the-art Parameter-Efficient Fine-Tuning.

🤗 PEFT: State-of-the-art Parameter-Efficient Fine-Tuning. - huggingface/peft

github.com

 

본인도 딥러닝, LLM을 이용해 개발적인 관점에서 사용은 가능하지만, 그 기술 자체에 전문 지식이 있는 것이 아니다 보니 개발 시 필요한 내용(어떤 fine-tuning 기법을 어떤 상황에서 써야 하는가)을 중점으로 정리를 하고자 합니다.

 

참고했던 강의와 자료는 다음과 같습니다.

 

Udemy 강의 : 

https://www.udemy.com/course/llm-part-1-llama-2-fine-tuning/

 

LoRA 튜토리얼 : 

https://huggingface.co/docs/peft/main/en/task_guides/token-classification-lora

 

LoRA for token classification

Low-Rank Adaptation (LoRA) is a reparametrization method that aims to reduce the number of trainable parameters with low-rank representations. The weight matrix is broken down into low-rank matrices that are trained and updated. All the pretrained model pa

huggingface.co

 

Prefix-Tuning 튜토리얼 : 

https://huggingface.co/docs/peft/main/en/task_guides/seq2seq-prefix-tuning

 

Prefix tuning for conditional generation

🤗 Accelerate integrations

huggingface.co

 

P-Tuning 튜토리얼 : 

https://huggingface.co/docs/peft/main/en/task_guides/ptuning-seq-classification

 

P-tuning for sequence classification

🤗 Accelerate integrations

huggingface.co

 

Prompt-Tuning 튜토리얼 : 

https://huggingface.co/docs/peft/main/en/task_guides/clm-prompt-tuning

 

Prompt tuning for causal language modeling

🤗 Accelerate integrations

huggingface.co

 

'LLM > Fine Tuning' 카테고리의 다른 글

Prompt Tuning  (0) 2024.04.14
P-Tuning  (0) 2024.04.14
Prefix Tuning  (0) 2024.04.14
LoRA  (0) 2024.04.14
댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
TAG
more
«   2024/12   »
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31
글 보관함