일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 | 31 |
- parametric approach
- GNN
- format이 없는 입출력문
- visual viewpoint
- object detection
- tensor core
- implicit rules
- 내장함수
- print*
- geometric viewpoint
- cs224w
- data-driven approach
- computer vision
- L2 distance
- Graph Neural Networks
- multiclass SVM loss
- FORTRAN
- algebraic viewpoint
- cv
- 산술연산
- EECS 498-007/598-005
- fortran90
- Semantic Gap
- human keypoints
- implicit rule
- feature cropping
- gfortran
- L1 distance
- cross-entropy loss
- image classification
- Today
- Total
목록놀라운 Deep Learning (15)
수리수리연수리 코드얍
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/dKDal1/btrZ0JKOF4r/uKTZm5SvjLHPUAfmPQRsX0/img.png)
1. Hardware 컴퓨터 본체 내부를 들여다보면, 큰 부피를 차지하고 있는 CPU와 GPU를 볼 수 있다. 실제로 이 둘은 그만큼 중요한 구성 요소이다. NVIDIA와 AMD는 하드웨어계의 유명한 라이벌이지만, 딥러닝 분야에 있어서는 승자가 확실하다. 바로 NVIDIA다. AMD의 경우 딥러닝을 위한 범용 컴퓨팅(general-purpose computing)에 활용되는 software stack이 NVIDIA의 것만큼 발전하지 못했기 때문에 딥러닝을 할 때는 NVIDIA의 hardware가 보편적으로 사용된다. 딥러닝에서 GPU라 하면 사실상 NVIDIA GPU라고 보면 된다. ※ 이때 범용 컴퓨팅이란 가전제품 제어, 비행기 항로 제어 등 특수한 목적만을 수행하는 것이 아닌, 사무 처리, 계산 등 ..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/c69NZ3/btrWRjbybbA/Ls5W2dJr8QoB3FWQqpKqQ1/img.png)
2. Loss Function 좋은 가중치 W를 선택하기 위해서는 가중치 weight가 얼마나 좋은지 정량화하는 loss function을 찾아야 하고, optimization을 통해 이 loss function을 최소화할 수 있는 가중치를 찾아야 한다. loss function이란 classifier가 잘 동작하는지 나타내주는 지표이다. loss, 즉 손실이 작아야 좋은 classifier이고, 손실이 크면 안 좋은 classifier이다. Loss Function의 다른 이름: Object Functon, Cost Function Negative Loss Function의 다른 이름: Reward Function, Profit Function, Utility Function, Fitness Funct..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bfHOmh/btrWRXFQQIr/Kdqk7DKmM7Fq8Khb7TswIk/img.png)
1. Linear Classifier Linear Classifier란 말그대로 선형으로 어떠한 대상을 분류해주는 알고리즘이다. 이는 앞으로 공부할 신경망(neural network)를 구성하는 가장 기본적인 요소로, 레고 작품 전체를 신경망이라 하면 그것을 구성하는 블록 하나하나가 linear classifier라고 볼 수 있다. 1) Parametric Approach 보통 linear classifier에 대해 설명할 때 빠지지 않고 등장하는 키워드가 바로 'parametric approach'이다. 이는 모든 데이터를 저장하는 것이 아니라 파라미터 값만 저장하는 방식으로, 이를 적용한 모델의 가장 단순한 형태가 바로 오늘 공부할 linear classifier이다. 그 반대는 모든 데이터를 저장하..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/4oXnL/btrWRjQiXG3/lsxTIjvd2bhevjrGIiuyH1/img.png)
1. Data-Driven Approach(데이터 중심 접근 방법) 이미지와 각 이미지에 해당하는 라벨에 대한 데이터셋을 모은다. Classifier(분류기)를 학습시키는 데에 머신러닝을 이용한다. 학습에 사용하지 않은 새로운 이미지들을 이용하여 classifier를 평가한다. 1) Image Classification Datasets (1) MNIST 클래스: 10개(0부터 9까지 숫자) 크기: 28*28 training images: 50k test images: 10k 설명이 필요 없을 정도로 유명한 데이터셋. 'Drosophila of computer vision'이라는 별칭도 가지고 있는데, 이는 생명과학 연구에서 단순한 생물 모델이 필요할 때 drosophila(초파리)를 사용한 데서 온 것이..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bHfzFb/btrWQHYpmhv/klNIk7KPvSDJ3DQXdfO9H1/img.png)
※ Deep Learning for Computer Vision 카테고리의 글 시리즈는 Michigan University의 동명의 강의(EECS 498-007 / 598-005) 내용을 정리한 것입니다. 혹시 오류를 발견하신다면 언제든지 댓글로 알려주시면 감사하겠습니다! 강의 영상: https://youtu.be/dJYGatp4SvA 1. Image Classification Deep Learning for Computer Vision 강의를 관통하는 큰 주제이자 컴퓨터 비전 분야의 'Core Task' 1) Semantic Gap(의미론적 차이) 사진을 보고 이게 고양인지 강아진지 구별하는 것은 우리 인간에게 일도 아니기 때문에, 언뜻 보기에 단순해 보이는 Image Classification이 컴퓨..