본문 바로가기

명징직조

소형 언어모델 sLLM

소규모 대형언어모델 sLLM 매개변수를 줄이고 미세조정으로 정확도를 높이는 맞춤형 LLM

챗 GPT 의 파라미터는 약 1750 억개, 구글의 PaLM 은 5400억개,

하지만 sLLM 은 약 60억개이다.

비용과 시간의 감소

이는 맞춤 형식과 작업 방식에 맞춰 LLM 의 맞춤화, 범용성이 제한되고 과소적합이 야기될 것

 

말 그대로 특정 분야에서의 언어 모델

'명징직조' 카테고리의 다른 글

숫자 42, 올바른 질문의 필요성, 프롬프트, LLM  (0) 2024.12.26
천재라는 표현에 대해  (0) 2024.12.26
빅뱅 이론 17화, 편도와 신피질  (0) 2022.12.07
자연을 모델링 할 때  (0) 2022.11.03
convex 탈출하기  (0) 2022.10.28