
Basic Concepts 보편적으로 딥러닝 구조는 학습을 위해 이미 labeled된 많은 양의 학습데이터를 필요로 한다. 따라서 학습 데이터의 양이 부족하다는 것은 해당 딥러닝 모델의 성능이 좋지 않다는 것을 의미할 수 있다. Siamese Networks는 class당 적은량의 데이터만이 존재하거나 class별로 데이터 개수의 차이가 확연한 imbalanced class distribution의 상황에서도 예측의 정확성을 높히기 위해 고안되었다. Sianmese Networks는 동일한 parameters나 weights을 갖는 쌍둥이, 즉 twin networks로 이루어져 있다. 이 twin networks는 한 쌍의 inputs을 받아 각자 받은 하나의 input의 features받아 두 inp..
인공지능 인간의 지능을 기계로 만드는 것 기계로부터 만들어진 지능. 컴퓨터 공학에서 이상적인 지능을 갖춘 존재 혹은 시스템에 의해 만들어진 지능. 인공적인 지능/ 기계가 인간의 인지 과정을 모방하는 것 (위키피디아) 인공지능을 실현시키는 기술: 기계 학습 이외에도 '전문가 시스템 (Expert System), 퍼지 이론 (Fuzzy Theory), 유전 알고리즘 (Genetic Algoritms), BDI아키텍쳐 (BDI Architecture)' 등 머신러닝 인공지능을 구현하는 기술, 인공지능 문제들을 푸는 방법 중 하나 크게 supervised learning, unsupervised learning, reinforcement learning으로 나누어짐 컴퓨터 공학의 한 분야로 통계적 기법을 사용하..

Kipf and Welling (2017)가 소개한 Graph Convolutional Networks (GCN)은 Graph Neural Networks (GNN)의 한가지 변형이라고 할 수 있다. GCN에서는 흔히 fileters나 kernels로 알려진 weights과 input을 곱한다라는 Convolutional Neural Networks (CNN)에서의 'convolution'의 개념이 동일하게 사용된다. CNN에서 각 layer들은 각각의 filter를 갖고 하나의 layer에서 해당 layer의 filter, 즉 하나의 filter가 전체 이미지를 훑으며 연산과정을 거치는데 이 과정을 weight sharing이라고 한다. GCN 이웃한 nodes를 함께 연산한다는 점에서는 CNN과 비슷..

Graph Theory 하나의 그래프는 objects과 entities사이의 쌍 관계를 분석하기 위한 수학적 구조로 활용되며, nodes(vertices or points)와 nodes들이 이어진 edges(links or lines), 두가지 요소로 구성되어 있다. 한 그래프의 edges가 방향성을 가지고 있는가, 가지고 있지 않는가로 directed graph와 undirected graph로 나뉠 수 있고, 만약 그래프의 모든 nodes들이 모든 다른 nodes과 연결되어 있다면 이 그래프는 complete graph라고 불린다. 그래프 $G$는 $G=(V, E)$로 나타내어질 수 있고 이 때, $V$와 $E$는 각각 a set of nodes와 edges를 의미한다. 그래프를 신경망에 넣기 위해서..

5x5 크기의 이미지가 3x3 커널과 stride 크기가 2인 Convolution과정에 의해 2x2사이즈의 이미지로 축소되었다고 가정해 보자. 축소된 2x2 크기의 이미지를 다시 5x5 크기의 이미지 혹은 다른 크기의 이미지로 확대시키는 과정을 Upsampling이라고 한다. Transposed Convolution은 Convolution과정을 통해 Upsampling할 수 있는 한가지 방법이다. 흔히, Deconvolution이라고도 불리기도 하지만 Transposed Convolution과 Deconvolution은 다른 연산 과정을 통해 Upsampling을 진행한다. Deconvolution은 Convolution과정에서 사용되었던 수학적 연산의 역 계산을 통하여 이미지를 Upsampling한다..

나중에 변경할 경우 코드 내에서 일일이 수정하지 않아도 되게 하기 위해, 배치 사이즈, 학습률과 에폭 개수는 미리 딕셔너리에 설정해 주었음 현재 gpu를 사용할 수 없는 상태라ㅠㅠ 에폭 개수를 대폭 줄여 모델을 학습 시켰는데 cuda사용이 가능했다면 에폭 개수를 100 정도로 했었을 것 같다! args = { 'BATCH_SIZE': 5, 'LEARNING_RATE': 0.001, 'NUM_EPOCH': 20 } 파이토치 공식 홈페이지의 튜토리얼 페이지를 참고하여 데이터 다운로드 https://pytorch.org/tutorials/beginner/blitz/cifar10_tutorial.html#sphx-glr-beginner-blitz-cifar10-tutorial-py train_set = torc..
- Total
- Today
- Yesterday
- openCV기초
- np.tri()
- 합성곱
- GNN
- 파이토치
- 오토인코더
- 딥러닝
- 폰트 사이즈 변경
- Extrative_Summarisation
- pytorch
- 주피터노트북
- Siamese Networks
- 재부팅
- 파이썬
- 샴네트워크
- Python
- deep learning
- 티스토리 코드 폰트
- Summarisation
- 윈도우
- BERT
- NLP
- unique value
- kernal error
- Graph Neural Networks
- ord()
- anaconda3
- np.ma.maked_where()
- 그래프
- 논문구현
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |