일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 | 31 |
Tags
- multiclass SVM loss
- implicit rule
- geometric viewpoint
- parametric approach
- fortran90
- computer vision
- L1 distance
- cs224w
- cross-entropy loss
- algebraic viewpoint
- L2 distance
- tensor core
- gfortran
- print*
- format이 없는 입출력문
- implicit rules
- Graph Neural Networks
- data-driven approach
- GNN
- 내장함수
- 산술연산
- FORTRAN
- object detection
- feature cropping
- Semantic Gap
- image classification
- cv
- human keypoints
- visual viewpoint
- EECS 498-007/598-005
Archives
- Today
- Total
목록multiclass SVM loss (1)
수리수리연수리 코드얍
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/c69NZ3/btrWRjbybbA/Ls5W2dJr8QoB3FWQqpKqQ1/img.png)
2. Loss Function 좋은 가중치 W를 선택하기 위해서는 가중치 weight가 얼마나 좋은지 정량화하는 loss function을 찾아야 하고, optimization을 통해 이 loss function을 최소화할 수 있는 가중치를 찾아야 한다. loss function이란 classifier가 잘 동작하는지 나타내주는 지표이다. loss, 즉 손실이 작아야 좋은 classifier이고, 손실이 크면 안 좋은 classifier이다. Loss Function의 다른 이름: Object Functon, Cost Function Negative Loss Function의 다른 이름: Reward Function, Profit Function, Utility Function, Fitness Funct..
놀라운 Deep Learning/Deep Learning for Computer Vision
2023. 1. 21. 21:38