
나중에 변경할 경우 코드 내에서 일일이 수정하지 않아도 되게 하기 위해, 배치 사이즈, 학습률과 에폭 개수는 미리 딕셔너리에 설정해 주었음 현재 gpu를 사용할 수 없는 상태라ㅠㅠ 에폭 개수를 대폭 줄여 모델을 학습 시켰는데 cuda사용이 가능했다면 에폭 개수를 100 정도로 했었을 것 같다! args = { 'BATCH_SIZE': 5, 'LEARNING_RATE': 0.001, 'NUM_EPOCH': 20 } 파이토치 공식 홈페이지의 튜토리얼 페이지를 참고하여 데이터 다운로드 https://pytorch.org/tutorials/beginner/blitz/cifar10_tutorial.html#sphx-glr-beginner-blitz-cifar10-tutorial-py train_set = torc..
머신러닝&딥러닝
2021. 2. 16. 18:38
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 논문구현
- np.ma.maked_where()
- GNN
- 주피터노트북
- 파이썬
- 오토인코더
- deep learning
- 티스토리 코드 폰트
- Siamese Networks
- NLP
- 폰트 사이즈 변경
- Graph Neural Networks
- np.tri()
- Python
- 샴네트워크
- kernal error
- pytorch
- BERT
- anaconda3
- Summarisation
- 파이토치
- unique value
- ord()
- 그래프
- openCV기초
- 합성곱
- Extrative_Summarisation
- 재부팅
- 윈도우
- 딥러닝
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
글 보관함