![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/bfrDI5/btsGEkI7Ys3/SlJKpceCG3O971OrAYBc60/img.png)
P-Tuning은 아래 논문에서 처음 소개되었습니다. https://arxiv.org/pdf/2103.10385.pdf 논문 제목이 GPT Understands, too 인데 그 이유는 GPT 모델의 경우, 논문이 나온 당시 GPT 모델은 NLI (Natural Language Inference), AE (Aspect Extraction) 등 텍스트 간의 추론에서 성능이 모자랐었지만, 이는 해당 모델이 이해하도록 prompt를 구성하는 것이 어렵기 때문입니다. 따라서 P-Tuning은 prompt를 GPT가 이해하기 쉽게 Tuning 한다는 의미를 갖습니다. 논문에 나온 해당 그림처럼 Prompt Encoder 부분을 이용해 GPT가 더욱 prompt를 잘 이해하도록 입력 자체를 변환시키겠다는 것이 해당..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/bpjxzj/btsGCvEzlAz/SWI2leXg8xATXwqk5nDRBk/img.png)
Prefix Tuning은 LLM의 전체 파라미터를 조정하는 것이 아닌, 파라미터 중 prefix 부분만 fine tuning 시키는 기법입니다. LoRA는 LLM에 별도 학습된 레이어를 추가적으로 구축 후, 기존 LLM에 합치는 것이라면, Prefix Tuning은 기존 LLM 자체를 활용해 일부만 파라미터를 수정합니다. Prefix Tuning에 대한 논문은 아래와 같습니다. https://arxiv.org/pdf/2101.00190.pdf 해당 논문에 나온 그림처럼, 기존 Transformer 모델은 그대로 두고, prefix 부분만 수정을 진행하여 특정 도메인에 더욱 특화된 fine tuning을 진행하는 것이 목표입니다. huggingface 튜토리얼을 바탕으로 sentences_allagree..
![](http://i1.daumcdn.net/thumb/C148x148/?fname=https://blog.kakaocdn.net/dn/cmia3t/btsGB1qmXbR/iaXAlZD51K4dFOoHkPW3mk/img.png)
LoRA (Low Rank Adaption for Large Language Model) 는 아래 논문에서 처음 발표되었습니다. https://arxiv.org/abs/2106.09685 LoRA: Low-Rank Adaptation of Large Language Models An important paradigm of natural language processing consists of large-scale pre-training on general domain data and adaptation to particular tasks or domains. As we pre-train larger models, full fine-tuning, which retrains all model paramete..
PEFT는 huggingface에서 작업 중인 Parameter-Efficient Fine-Tuning, 즉 효율적인 파라미터 파인 튜닝입니다. Fine Tuning이란, 대부분의 일반 사용자, 개발자 입장에서 llama, gpt 같은 대규모 LLM 자체를 만드는 것은 사실상 불가능하기 때문에, 기존 LLM의 파라미터를 내가 원하는 분야에 특화되도록 파라미터 튜닝을 하는 것을 의미합니다. PEFT는 이러한 Fine Tuning을 좀 더 쉽게 할 수 있도록 huggingface에서 제공해주는 라이브러리입니다. 주요 document는 아래에서 확인 가능하며, https://huggingface.co/docs/peft/index PEFT 🤗 Accelerate integrations huggingface.co..
https://www.acmicpc.net/problem/5670 5670번: 휴대폰 자판 휴대폰에서 길이가 P인 영단어를 입력하려면 버튼을 P번 눌러야 한다. 그러나 시스템프로그래밍 연구실에 근무하는 승혁연구원은 사전을 사용해 이 입력을 더 빨리 할 수 있는 자판 모듈을 개발 www.acmicpc.net 자동완성 기능이 있는 사전을 이용해 주어진 문자열들을 만들기 위해서는 몇 개의 알파벳을 입력하여야 하는가의 문제입니다. ex) hello, hell -> h 입력 시 hell 까지 자동 완성, hello, hell, he -> h 입력 시 he 까지 자동완성, l 입력 시 hell 까지 자동완성 트라이를 이용하여 다음과 같이 풀 수 있습니다. 1) 입력으로 주어진 문자열의 마지막에 . 을 추가한다. (..