소규모 대형언어모델 sLLM 매개변수를 줄이고 미세조정으로 정확도를 높이는 맞춤형 LLM
챗 GPT 의 파라미터는 약 1750 억개, 구글의 PaLM 은 5400억개,
하지만 sLLM 은 약 60억개이다.
비용과 시간의 감소
이는 맞춤 형식과 작업 방식에 맞춰 LLM 의 맞춤화, 범용성이 제한되고 과소적합이 야기될 것
말 그대로 특정 분야에서의 언어 모델
'명징직조' 카테고리의 다른 글
숫자 42, 올바른 질문의 필요성, 프롬프트, LLM (0) | 2024.12.26 |
---|---|
천재라는 표현에 대해 (0) | 2024.12.26 |
빅뱅 이론 17화, 편도와 신피질 (0) | 2022.12.07 |
자연을 모델링 할 때 (0) | 2022.11.03 |
convex 탈출하기 (0) | 2022.10.28 |