일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 | 31 |
- FORTRAN
- human keypoints
- L2 distance
- 산술연산
- tensor core
- gfortran
- fortran90
- computer vision
- L1 distance
- GNN
- parametric approach
- cv
- cross-entropy loss
- print*
- multiclass SVM loss
- object detection
- data-driven approach
- geometric viewpoint
- cs224w
- format이 없는 입출력문
- visual viewpoint
- 내장함수
- Semantic Gap
- implicit rule
- EECS 498-007/598-005
- implicit rules
- algebraic viewpoint
- Graph Neural Networks
- feature cropping
- image classification
- Today
- Total
목록전체 글 (24)
수리수리연수리 코드얍
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/c69NZ3/btrWRjbybbA/Ls5W2dJr8QoB3FWQqpKqQ1/img.png)
2. Loss Function 좋은 가중치 W를 선택하기 위해서는 가중치 weight가 얼마나 좋은지 정량화하는 loss function을 찾아야 하고, optimization을 통해 이 loss function을 최소화할 수 있는 가중치를 찾아야 한다. loss function이란 classifier가 잘 동작하는지 나타내주는 지표이다. loss, 즉 손실이 작아야 좋은 classifier이고, 손실이 크면 안 좋은 classifier이다. Loss Function의 다른 이름: Object Functon, Cost Function Negative Loss Function의 다른 이름: Reward Function, Profit Function, Utility Function, Fitness Funct..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bfHOmh/btrWRXFQQIr/Kdqk7DKmM7Fq8Khb7TswIk/img.png)
1. Linear Classifier Linear Classifier란 말그대로 선형으로 어떠한 대상을 분류해주는 알고리즘이다. 이는 앞으로 공부할 신경망(neural network)를 구성하는 가장 기본적인 요소로, 레고 작품 전체를 신경망이라 하면 그것을 구성하는 블록 하나하나가 linear classifier라고 볼 수 있다. 1) Parametric Approach 보통 linear classifier에 대해 설명할 때 빠지지 않고 등장하는 키워드가 바로 'parametric approach'이다. 이는 모든 데이터를 저장하는 것이 아니라 파라미터 값만 저장하는 방식으로, 이를 적용한 모델의 가장 단순한 형태가 바로 오늘 공부할 linear classifier이다. 그 반대는 모든 데이터를 저장하..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/4oXnL/btrWRjQiXG3/lsxTIjvd2bhevjrGIiuyH1/img.png)
1. Data-Driven Approach(데이터 중심 접근 방법) 이미지와 각 이미지에 해당하는 라벨에 대한 데이터셋을 모은다. Classifier(분류기)를 학습시키는 데에 머신러닝을 이용한다. 학습에 사용하지 않은 새로운 이미지들을 이용하여 classifier를 평가한다. 1) Image Classification Datasets (1) MNIST 클래스: 10개(0부터 9까지 숫자) 크기: 28*28 training images: 50k test images: 10k 설명이 필요 없을 정도로 유명한 데이터셋. 'Drosophila of computer vision'이라는 별칭도 가지고 있는데, 이는 생명과학 연구에서 단순한 생물 모델이 필요할 때 drosophila(초파리)를 사용한 데서 온 것이..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bHfzFb/btrWQHYpmhv/klNIk7KPvSDJ3DQXdfO9H1/img.png)
※ Deep Learning for Computer Vision 카테고리의 글 시리즈는 Michigan University의 동명의 강의(EECS 498-007 / 598-005) 내용을 정리한 것입니다. 혹시 오류를 발견하신다면 언제든지 댓글로 알려주시면 감사하겠습니다! 강의 영상: https://youtu.be/dJYGatp4SvA 1. Image Classification Deep Learning for Computer Vision 강의를 관통하는 큰 주제이자 컴퓨터 비전 분야의 'Core Task' 1) Semantic Gap(의미론적 차이) 사진을 보고 이게 고양인지 강아진지 구별하는 것은 우리 인간에게 일도 아니기 때문에, 언뜻 보기에 단순해 보이는 Image Classification이 컴퓨..