본문 바로가기

implement_ml_models

(94)
implement_RNN (vector-to-sequence) 2개의 가중치 2023.03.02 - [분류 전체보기] - implement_RNN (vector-to-sequence, delta3) implement_RNN (vector-to-sequence, delta3) 2023.03.02 - [분류 전체보기] - implement_RNN (vector-to-sequence, delta2) implement_RNN (vector-to-sequence, delta2) 2023.02.27 - [분류 전체보기] - implement_RNN (delta-to-sequence, delta2) implement_RNN (delta-to-sequence, delta2) 2023.02.26 - teach-meaning.tistory.com 입력에 대한 가중치, 이전 출력에 대한 가중치, 출..
implement_RNN (vector-to-sequence, delta3) 2023.03.02 - [분류 전체보기] - implement_RNN (vector-to-sequence, delta2) implement_RNN (vector-to-sequence, delta2) 2023.02.27 - [분류 전체보기] - implement_RNN (delta-to-sequence, delta2) implement_RNN (delta-to-sequence, delta2) 2023.02.26 - [분류 전체보기] - implement_RNN (delta-to-sequence 2) implement_RNN (delta-to-sequence 2) 2023.02.24 - [분류 전 teach-meaning.tistory.com 가중치 업데이트의 적용, 학습 반복 횟수에 따른 비용 함수의 변화..
implement_RNN (vector-to-sequence, delta2) 2023.02.27 - [분류 전체보기] - implement_RNN (delta-to-sequence, delta2) implement_RNN (delta-to-sequence, delta2) 2023.02.26 - [분류 전체보기] - implement_RNN (delta-to-sequence 2) implement_RNN (delta-to-sequence 2) 2023.02.24 - [분류 전체보기] - implement_RNN (delta-to-sequence 1) implement_RNN (delta-to-sequence 1) 2023.02.21 - [분류 전체보기] - i teach-meaning.tistory.com vector_to_sequence RNN 을 완성하기 위해 임의의 seqen..
implement_RNN (delta-to-sequence, delta2) 2023.02.26 - [분류 전체보기] - implement_RNN (delta-to-sequence 2) implement_RNN (delta-to-sequence 2) 2023.02.24 - [분류 전체보기] - implement_RNN (delta-to-sequence 1) implement_RNN (delta-to-sequence 1) 2023.02.21 - [분류 전체보기] - implement_RNN implement_RNN 가중치의 종류 W_xh : 입력 값에 대한 가중치, 가중치 연산 결과 teach-meaning.tistory.com RNN 의 각 노드들의 delta 값 계산, 먼저 delta to sequence RNN 에서는 result_w 가 한 번만 사용된다. # 노드 출력에 대..
implement_RNN (delta-to-sequence 2) 2023.02.24 - [분류 전체보기] - implement_RNN (delta-to-sequence 1) implement_RNN (delta-to-sequence 1) 2023.02.21 - [분류 전체보기] - implement_RNN implement_RNN 가중치의 종류 W_xh : 입력 값에 대한 가중치, 가중치 연산 결과가 노드 입력이 된다. W_hy : 노드 출력에 대한 가중치, 예측값이 된다. W_hh : 노드 출 teach-meaning.tistory.com 이전 글에서 RNN 의 계산 과정을 구할 수 있었다. RNN 역시 DNN 과 마찬가지로 역전파 계산을 통해 가중치의 크기를 업데이트 해야 한다. 각 노드들의 입력 계산에 동일한 가중치가 사용되므로 처음 노드까지의 각 다음 노드들의..
implement_RNN (delta-to-sequence 1) 2023.02.21 - [분류 전체보기] - implement_RNN implement_RNN 가중치의 종류 W_xh : 입력 값에 대한 가중치, 가중치 연산 결과가 노드 입력이 된다. W_hy : 노드 출력에 대한 가중치, 예측값이 된다. W_hh : 노드 출력에 대한 가중치, 다음 노드 입력에 사용된다. teach-meaning.tistory.com RNN 구현에 있어 그 종류로는 시퀀스 투 시퀀스, 벡터 투 시퀀스, 시퀀스 투 벡터 벡터 투 벡터 (동일한 시간대 예측) 벡터 투 벡터 (앞 시간대 예측) 의 다양한 종류가 존재한다. 먼저 벡터 투 시퀀스, n 개의 시퀀스 데이터를 기반으로 다음 시퀀스 데이터 하나를 예측하는 RNN 모델을 구현해본다. 이 경우 예측을 위한 가중치 W_hy 는 한 번만 ..
implement_RNN 가중치의 종류 W_xh : 입력 값에 대한 가중치, 가중치 연산 결과가 노드 입력이 된다. W_hy : 노드 출력에 대한 가중치, 예측값이 된다. W_hh : 노드 출력에 대한 가중치, 다음 노드 입력에 사용된다. 원하는 크기의 입력에 대한 출력의 크기를 지정할 수 있다. 시퀀스 투 시퀀스 시퀀트 투 벡터 벡터 투 시퀀스 벡터 투 벡터 각 종류와 그 크기별로 가중치들의 행렬 크기가 바뀐다. class RNN: """ 순환 신경망의 계산 """ # 입력 가중치 input_w = [] # 이전 출력에 대한 가중치 before_w = [] # 출력 가중치 result_w = [] # 편향 값 bais bias = [] # 노드 입력 node_input = [] def cal_rnn(self, input, ta..
implement_MLP(weight_update 3) 2023.02.19 - [분류 전체보기] - implement_MLP(weight_update 2) implement_MLP(weight_update 2) 2023.02.17 - [분류 전체보기] - implement_MLP(weight_update) implement_MLP(weight_update) 2023.02.15 - [분류 전체보기] - implement_MLP(parameter_update)(5 back propagation) implement_MLP(parameter_update)(5 back propagation) 2023.02.13 - [분류 teach-meaning.tistory.com 비용 함수의 값이 MLP 연산을 반복하면서 감소하다가 일정 반복 이상에서 비용 함수가 다시 증가하는 ..