
5x5 크기의 이미지가 3x3 커널과 stride 크기가 2인 Convolution과정에 의해 2x2사이즈의 이미지로 축소되었다고 가정해 보자. 축소된 2x2 크기의 이미지를 다시 5x5 크기의 이미지 혹은 다른 크기의 이미지로 확대시키는 과정을 Upsampling이라고 한다. Transposed Convolution은 Convolution과정을 통해 Upsampling할 수 있는 한가지 방법이다. 흔히, Deconvolution이라고도 불리기도 하지만 Transposed Convolution과 Deconvolution은 다른 연산 과정을 통해 Upsampling을 진행한다. Deconvolution은 Convolution과정에서 사용되었던 수학적 연산의 역 계산을 통하여 이미지를 Upsampling한다..

나중에 변경할 경우 코드 내에서 일일이 수정하지 않아도 되게 하기 위해, 배치 사이즈, 학습률과 에폭 개수는 미리 딕셔너리에 설정해 주었음 현재 gpu를 사용할 수 없는 상태라ㅠㅠ 에폭 개수를 대폭 줄여 모델을 학습 시켰는데 cuda사용이 가능했다면 에폭 개수를 100 정도로 했었을 것 같다! args = { 'BATCH_SIZE': 5, 'LEARNING_RATE': 0.001, 'NUM_EPOCH': 20 } 파이토치 공식 홈페이지의 튜토리얼 페이지를 참고하여 데이터 다운로드 https://pytorch.org/tutorials/beginner/blitz/cifar10_tutorial.html#sphx-glr-beginner-blitz-cifar10-tutorial-py train_set = torc..
- Total
- Today
- Yesterday
- GNN
- unique value
- 딥러닝
- kernal error
- np.tri()
- BERT
- 폰트 사이즈 변경
- Summarisation
- 합성곱
- openCV기초
- 파이토치
- Graph Neural Networks
- pytorch
- 재부팅
- Siamese Networks
- 샴네트워크
- 윈도우
- Extrative_Summarisation
- deep learning
- anaconda3
- ord()
- NLP
- 파이썬
- 논문구현
- 오토인코더
- Python
- 주피터노트북
- 그래프
- np.ma.maked_where()
- 티스토리 코드 폰트
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |