일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- parametric approach
- L2 distance
- algebraic viewpoint
- human keypoints
- visual viewpoint
- EECS 498-007/598-005
- fortran90
- cross-entropy loss
- data-driven approach
- FORTRAN
- implicit rule
- 산술연산
- Semantic Gap
- geometric viewpoint
- print*
- cs224w
- image classification
- multiclass SVM loss
- object detection
- implicit rules
- cv
- computer vision
- 내장함수
- tensor core
- gfortran
- GNN
- L1 distance
- format이 없는 입출력문
- Graph Neural Networks
- feature cropping
- Today
- Total
목록Graph Neural Networks (6)
수리수리연수리 코드얍
1. Graph-Level Features Goal: We want features that characterize the structure of an entire graph Background: Kernel Methods Kernel methods란 graph-level prediction을 위한 전통적인 ML에서 보편적으로 쓰이는 방법론이다. 이 방법론의 아이디어는 이름처럼, feature vector 대신 'kernel'을 디자인하자는 것이다. Kernel K(G, G') $\in$ $\mathbb{R}$은 두 그래프(G) 사이의 유사도를 측정한다. Kernel matrix K는 항상 positive semi-definite이며(이는 해당 matrix가 항상 양의 eigenvalue를 가짐을 의미)..
1. Link Prediction as a Task Link prediction task에는 크게 두 가지 종류가 있다. 랜덤하게 사라진 link 찾기(ex. protein-protein interaction network와 같은 static network에 적합) 시간에 따라 생겨나는 link 찾기(ex. citation network, social network, collaboration network...) 이제부터는 어떻게 주어진 pair of nodes에 대해 feature descriptor를 생성할 수 있는지를 알아보도록 하자. pair of nodes x, y에 대해서 몇 가지 score를 비교하는 것이 기본 아이디어가 된다(score의 예시로는 node x, y 간의 common neig..
1. Traditional ML Pipeline Traditional ML(Machine Learning) Pipeline이란 적절한 feature를 디자인하는 것에 대한 모든 것이라 할 수 있다. feature는 크게 structural feature, attribute feature로 나눌 수 있는데, 이 강의에서는 각각의 node과 자신과 연관 있는 attribute를 가지고 있다고 가정하고, structural feature에만 집중한다. structural feature는 더 넓은 surrounding of the network에 대해 link structure를 표현할 수 있도록 해주고, 관심 있는 node 근처의 이웃 관계를 볼 수 있게 해주며, 전체 그래프의 구조를 파악할 수 있도록 해준다..
1. Components of a Network Objects: nodes, vertices → N Interactions: links, edges → E System: network, graph → G(N, E) Graph는 일반적인 언어이다. 배우와 배우 사이의 관계, 사람과 사람 사이의 관계, 단백질과 단백질 사이의 관계를 나타내는 세 개의 모식도는 모두 우측 아래 검은색 그래프와 같은 공통된 수학적인 표현으로 나타낼 수 있다. 2. Choosing a Proper Representation 당연한 이야기지만, 적절한 graph representation을 선택하는 일은 매우 중요하다. 일례로 같은 개인을 연결하더라도 professional한 관계를 따지느냐, sexual한 관계를 따지느냐에 따라 ..
1. Different Types of Tasks 지난 글, 1-1. Why Graphs에서도 잠깐 언급한 바 있지만, 그래프에 대한 딥러닝 모델링에서 output인 prediction은 여러 수준에서 이루어질 수 있다. 개별 node level일 수도 있고, edge(pairs of nodes) level일 수도 있고, community(subgraph) level일 수도, graph 혹은 graph generation level일 수도 있다. 아래에서 각각 level에서의 task가 무엇이 있는지, 그 응용 사례에는 어떤 것이 있는지 소개하겠다. Node Classification: predict a property of a node(ex. categorize online users/items) Li..
※ Machine Learning with Graphs 카테고리의 글 시리즈는 Stanford University의 동명의 강의(CS224W) 내용을 정리한 것입니다. 혹시 오류를 발견하신다면 언제든지 댓글로 알려주시면 감사하겠습니다! 강의 영상: https://www.youtube.com/playlist?list=PLoROMvodv4rPLKxIpqhjhPgdQy7imNkDn Stanford CS224W: Machine Learning with Graphs This course covers important research on the structure and analysis of such large social and information networks and on models and algorith..