본문 바로가기

머신러닝 아이디어

(43)
Git - 삭제된 파일과 추가된 파일의 유사성이 50%를 넘으면 경로와 파일명이 달라도 병합할 때 비교 대상으로 삼는다. 리액트에서도 Virtual DOM 에서 변경 부분 탐지 및 업데이트로 성능 향상가중치 갱신에도 이와 같은 방법론의 사용 가능?
초기 가중치 설정 초기 가중치 설정에 있어 그 가중치의 값이 단위 길이를 가지도록, 입력 데이터의 분포 형태를 알고 있다면 그 분포의 형태를 따라하도록 설정,
최소제곱법의 분류 ( 예측값을 확률로써 해석할 수 없는 이유 ) 최조 제곱법 기반 방법으로 판별 함수 매개변수의 해를 구할 수 있지만, (0, 1) 구간 사이의 제약 조건이 없기 때문에 그 값들의 합이 1이 되더라도 확률로써 해석하기엔 어렵다. 최소 제곱 해는 이상 값에 대한 강건성이 부족, 가우시안 조건부 분포 가정하에서 최대 가능도 방법과 연관되어 있는 방식이기에, 명확히 가우시안이 아닌 분포를 가진 이진 표적 벡터들에 대해 최소 제곱법이 제대로 작동하지 않는다.
이산 확률 변수-베르누이 분포 베르누이 분포 : 정규화되어 있는 분포, 평균과 분산이 다음과 같이 주어진다. E[x] = mu var[x] = mu(1-mu) 가능도 함수의 구성, 빈도적 관점에서는 가능도 함수를 최대화하는 mu 를 찾아서 mu 의 값을 추정할 수 있다.
다중도, 엔트로피 N 개의 물체를 통에 넣는 가짓수 위 식을 다중도라 한다. 엔트로피는 다중도의 로그를 취해서 적절한 상수로 나눈다. 스털링 근사식을 통한 변환
정보 이론(1) 서로 연관되어 있지 않은 두 사건 x, y 고려, x, y 가 함께 일어났을 때 얻는 정보량은 각 사건이 따로 일어났을 때 얻는 정보량의 합이 될 것이다. h(x, y) = h(x) + h(y) 연관되어 있지 않은 사건들은 독립적이며, 따라서 p(x, y) = p(x) p(y) 위 관계로부터 h(x) 는 p(x) 의 로그에 해당한다는 것을 보일 수 있다. h(x) = log_2 p(x)
오분류 비율의 최소화 확률의 곱의 법칙에 따라 p(x, C_k) = p(C_k|x) p(x) 위 식을 만족, p(x) 는 양쪽의 항에서 동일하다. 따라서 p 를 최소화하기 위해서는 각각의 x 를 사후 확률 p(C_k|x) 가 최대가 되는 클래스에 포함시키면 된다.
베이지안 방식의 곡선 피팅 사후 분포를 최대화하는 것이 정규화된 제곱합 오차 함수를 최소화하는 것과 동일함을 확인할 수 있다. 주어진 데이터에 대해 가장 가능성 높으 W 를 찾는 방식으로 W 를 결정할 ㅜㅅ ㅣㅇㅆ다. W 의 사후 분포는 사전 분포와 가능도 함수의 곱에 비례