일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 |
Tags
- parametric approach
- GNN
- cs224w
- EECS 498-007/598-005
- cross-entropy loss
- visual viewpoint
- tensor core
- feature cropping
- format이 없는 입출력문
- image classification
- algebraic viewpoint
- fortran90
- L2 distance
- computer vision
- multiclass SVM loss
- human keypoints
- gfortran
- print*
- 내장함수
- Semantic Gap
- implicit rule
- 산술연산
- data-driven approach
- geometric viewpoint
- cv
- L1 distance
- Graph Neural Networks
- implicit rules
- object detection
- FORTRAN
Archives
- Today
- Total
목록multiclass SVM loss (1)
수리수리연수리 코드얍
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/c69NZ3/btrWRjbybbA/Ls5W2dJr8QoB3FWQqpKqQ1/img.png)
2. Loss Function 좋은 가중치 W를 선택하기 위해서는 가중치 weight가 얼마나 좋은지 정량화하는 loss function을 찾아야 하고, optimization을 통해 이 loss function을 최소화할 수 있는 가중치를 찾아야 한다. loss function이란 classifier가 잘 동작하는지 나타내주는 지표이다. loss, 즉 손실이 작아야 좋은 classifier이고, 손실이 크면 안 좋은 classifier이다. Loss Function의 다른 이름: Object Functon, Cost Function Negative Loss Function의 다른 이름: Reward Function, Profit Function, Utility Function, Fitness Funct..
놀라운 Deep Learning/Deep Learning for Computer Vision
2023. 1. 21. 21:38