일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- Graph Neural Networks
- cs224w
- visual viewpoint
- L2 distance
- computer vision
- format이 없는 입출력문
- geometric viewpoint
- parametric approach
- multiclass SVM loss
- cv
- cross-entropy loss
- gfortran
- algebraic viewpoint
- L1 distance
- 내장함수
- 산술연산
- implicit rules
- image classification
- data-driven approach
- human keypoints
- GNN
- implicit rule
- Semantic Gap
- tensor core
- FORTRAN
- feature cropping
- object detection
- EECS 498-007/598-005
- print*
- fortran90
- Today
- Total
목록놀라운 Deep Learning (15)
수리수리연수리 코드얍

1. Hardware 컴퓨터 본체 내부를 들여다보면, 큰 부피를 차지하고 있는 CPU와 GPU를 볼 수 있다. 실제로 이 둘은 그만큼 중요한 구성 요소이다. NVIDIA와 AMD는 하드웨어계의 유명한 라이벌이지만, 딥러닝 분야에 있어서는 승자가 확실하다. 바로 NVIDIA다. AMD의 경우 딥러닝을 위한 범용 컴퓨팅(general-purpose computing)에 활용되는 software stack이 NVIDIA의 것만큼 발전하지 못했기 때문에 딥러닝을 할 때는 NVIDIA의 hardware가 보편적으로 사용된다. 딥러닝에서 GPU라 하면 사실상 NVIDIA GPU라고 보면 된다. ※ 이때 범용 컴퓨팅이란 가전제품 제어, 비행기 항로 제어 등 특수한 목적만을 수행하는 것이 아닌, 사무 처리, 계산 등 ..

2. Loss Function 좋은 가중치 W를 선택하기 위해서는 가중치 weight가 얼마나 좋은지 정량화하는 loss function을 찾아야 하고, optimization을 통해 이 loss function을 최소화할 수 있는 가중치를 찾아야 한다. loss function이란 classifier가 잘 동작하는지 나타내주는 지표이다. loss, 즉 손실이 작아야 좋은 classifier이고, 손실이 크면 안 좋은 classifier이다. Loss Function의 다른 이름: Object Functon, Cost Function Negative Loss Function의 다른 이름: Reward Function, Profit Function, Utility Function, Fitness Funct..

1. Linear Classifier Linear Classifier란 말그대로 선형으로 어떠한 대상을 분류해주는 알고리즘이다. 이는 앞으로 공부할 신경망(neural network)를 구성하는 가장 기본적인 요소로, 레고 작품 전체를 신경망이라 하면 그것을 구성하는 블록 하나하나가 linear classifier라고 볼 수 있다. 1) Parametric Approach 보통 linear classifier에 대해 설명할 때 빠지지 않고 등장하는 키워드가 바로 'parametric approach'이다. 이는 모든 데이터를 저장하는 것이 아니라 파라미터 값만 저장하는 방식으로, 이를 적용한 모델의 가장 단순한 형태가 바로 오늘 공부할 linear classifier이다. 그 반대는 모든 데이터를 저장하..

1. Data-Driven Approach(데이터 중심 접근 방법) 이미지와 각 이미지에 해당하는 라벨에 대한 데이터셋을 모은다. Classifier(분류기)를 학습시키는 데에 머신러닝을 이용한다. 학습에 사용하지 않은 새로운 이미지들을 이용하여 classifier를 평가한다. 1) Image Classification Datasets (1) MNIST 클래스: 10개(0부터 9까지 숫자) 크기: 28*28 training images: 50k test images: 10k 설명이 필요 없을 정도로 유명한 데이터셋. 'Drosophila of computer vision'이라는 별칭도 가지고 있는데, 이는 생명과학 연구에서 단순한 생물 모델이 필요할 때 drosophila(초파리)를 사용한 데서 온 것이..

※ Deep Learning for Computer Vision 카테고리의 글 시리즈는 Michigan University의 동명의 강의(EECS 498-007 / 598-005) 내용을 정리한 것입니다. 혹시 오류를 발견하신다면 언제든지 댓글로 알려주시면 감사하겠습니다! 강의 영상: https://youtu.be/dJYGatp4SvA 1. Image Classification Deep Learning for Computer Vision 강의를 관통하는 큰 주제이자 컴퓨터 비전 분야의 'Core Task' 1) Semantic Gap(의미론적 차이) 사진을 보고 이게 고양인지 강아진지 구별하는 것은 우리 인간에게 일도 아니기 때문에, 언뜻 보기에 단순해 보이는 Image Classification이 컴퓨..