
더보기
비대칭 양자화 유도 과정에서 두 식을 빼는 이유는,
선형 변환식 q = ax + b 에서 기울기 a 를 구하기 위해 b 를 없애기 위함
두 개의 경계 조건에서 미지수는 a, b 두 개, 두 식을 빼면 b 항이 제거됨
Q_max - Q_min = a (x_max - x_min)
기울기 a 계산 후 이를 다시 대입하여 b 를 구한다.
반올림, 경계, 오차의 미시적 유도
왜 반올림을 사용하는지,
연속값을 균일 간격 d = S 의 격자점에 붙이는 표준 규칙이 근사 오차를 최소화하기 때문
클램프(포화) 필요성
실제 데이터가 x_min, x_max 밖에 있으면 saturation 포화 발생
q = clamp(round(x/S) + Z, Q_min, Q_max)
이는 하드웨어 안정성과 수치안정을 위해 필수
평균 제약(비대칭) vs 대칭 제약
비대칭은 구간을 꽉 채우므로 스케일이 촘촘, 0 이 정수 격자에 정확히 놓이지 않을 수 있어 z != 0 으로 보정
대칭은 Z = 0 이라 연산 간소화 장점, 대신 데이터가 한 쪽에 치우치면 다른 한 쪽 레벨이 낭비
균일 양자화와의 스텝 d 와 오차 통계
균일 양자화에서 스텝 d = S
입력 분포가 각 스텝 구간에서 충분히 균일하다고 가정하면,
E[epsilon] = 0, E[epsilon^2] = d^2 / 12, MSE 가 깔끔하게 떨어짐
'AI learning Platform' 카테고리의 다른 글
| 딥러닝의 양자화 Quantization 구현하기 - Quantum Computing 과의 차이를 확인하며 (4) | 2025.08.13 |
|---|---|
| ai framework 와 ai learning platform 의 통합 (0) | 2025.06.24 |