반응형
다음글 : 2023.07.31 - [IT] - Langchain으로 LLaMA2 cpp 버전 사용하기
Langchain으로 LLaMA2 cpp 버전 사용하기
서론 LLAMA 2모델을 GPU가 없는 환경에서도 사용할 수있도록 하는 GGML 프로젝트가 있다. (링크 : https://github.com/ggerganov/ggml) 해당 프로젝트를 통해서 만들어진 코드와 ggml버전 llama2 모델을 Langchain을
knowslog.tistory.com
서론
MetaAI에서 2023.7.18일 LLAMA2를 발표했다.
기존 LLaMA 1 뿐만 아니라 다른 Open LLM들 대비 성능도 좋아졌다고 되어있어 실제 사용한 후기를 남긴다.
LLAMA 2 소개
대표적인 특징
- 연구 및 상업적 용도 사용 가능
- 마이크로소프트와의 협업으로 연구
- Azure, AWS, HuggingFace에서 바로 사용 가능
- 사전 학습 모델은 2 조개의 토큰으로 학습되었으며, LLAMA1 보다 Context 길이가 2배로 길어짐(4K)
- 파라미터 수 : 7B, 13B, 40B
- 1백만개 이상의 인간의 Annotations된 데이터로 미세조정

벤치마크 비교
- LLAMA2는 추론, 코딩 숙련도, 지식 테스트등 모든 지표에서 다른 Open LLM들 대비 우수한 성능을 보여줌

LLAMA2-Chat
- ChatGPT와 같이 RLHF(Reinforcement Learning from Human Feedback)방식으로 모델을 튜닝함
- 공개적으로 사용가능한 온라인 데이터를 통해 LLAMA2 베이스 모델을 학습함
- FineTune된 초기버전 LLAMA2-chat 모델 생성
- 거부 샘플링과 근거리 정책 최적화(PPO)를 포함하는 인간 피드백을 통한 강화 학습(RLHF)을 사용하여 반복적으로 Llama-2-chat을 개선

LAMA2-70B-Chat 데모 사용 후기
(링크 : https://huggingface.co/spaces/ysharma/Explore_llamav2_with_TGI)
- 영어로는 답변의 수준 및 문장생성 능력은 우수한 것으로 보인다.
- 현재 제공된 데모 페이지에서는 한국어로 답변을 받는 서비스는 아직 부족해보인다.
- 모델이 한국어로 질문하는 것에 대한 이해는 하는 것으로 보이나 답변을 영어로 하고 있고, 강제로 한국어로 지정을 해도 잘 수행하지 못하는 경우가 있다.
- 한국어로 된 서비스를 해당 모델로 사용시 좀 더 적적한 프롬프트 지시사항을 줘서 일관된 서비스가 될 필요는 있다.
- 또한 현재 데모페이지는 초기의 ChatGPT 서비스 같이 답변을 하다 output 토큰을 초과하면 답변을 하다가 멈추는 경우가 있어 서비스 개발시 해당 부분에 대해서 고려가 필요하다.



결론
LLAMA2의 모델을 다운로드를 하기 위해서는 MetaAI에 승인 요청을 해야한다. 아직 승인 메일이 오지 않아 완벽한 사용은 하지 못하였으나,
허깅페이스에서 제공해준 데모를 사용하였을때는 충분히 해당 모델을 사용해서 서비스를 구상해볼수 있지 않을까라는 생각을 하게 되었다.
LLAMA1 때도 그랬듯이 향후 LLAMA2을 좀더 튜닝하고 확장하고, 최적화한 프로젝트들이 공개될 것으로 기대된다.
참고자료
- LLAMA2 사용신청(https://ai.meta.com/resources/models-and-libraries/llama-downloads/)
- LLAMA2 github(https://github.com/facebookresearch/llama)
- 허깅페이스 데모 블로그(https://huggingface.co/blog/llama2)
반응형
'IT' 카테고리의 다른 글
Fastapi, Celery를 이용한 LLM Worker 만들기(feat. Redis) (0) | 2023.08.13 |
---|---|
Langchain으로 LLaMA2 cpp 버전 사용하기 (0) | 2023.07.31 |
GPT4ALL 설치하기(on Apple Silicon 맥북) (0) | 2023.07.13 |
구형 맥북에어 공장초기화 및 OS 업그레이드 방법 (0) | 2023.07.12 |
ChatGPT로 데이터분석하기(feat. Noteable) (0) | 2023.06.30 |