해당 게시글은 PyTorch tutorial을 기반으로 설명을 덧붙이고 코드를 수정하며 정리한 글입니다. Pytorch는 autograd operation을 제공한다. autograd는 automatic differentiation engine으로, neural network 학습에 사용되는 gradient를 제공한다. (경사하강법에서 활용 가능) Background Neural network는 weight, bias와 같은 parameter로 정의될 수 있는 함수들의 중첩이다. NN의 학습은 크게 2가지 과정을 거쳐 이루어진다. Forward Propagation : Input 데이터를 함수들에 넣어서 결과값을 뽑아내는 과정 Backward Propagation : output 데이터를 감소시키기 위해..