대학원 입시 준비를 하면서 그동안 배운 수학, 알고리즘, 자료구조 등의 내용을 정리해두려 한다. 단순히 대학원 입시 준비 뿐만 아니라 앞으로 석사과정 진학 후에도 유용하게 사용할 수 있도록 정리해둘 것이다.
가장 먼저 이 포스팅에서는 얼마 남지 않은 기간동안 어떻게 진행할지 계획을 세워보고, 공부 개요를 짜보려 한다.
양이 매우 많고 범위가 넓으므로 keyword를 정리한 후, 이를 기준으로 개념을 정리할 것이다.
1. 계획 및 자료
개괄적인 공부 계획은 다음과 같다.
- 포항공대 모집요강에서 제시한 수학과 알고리즘 교재를 기준으로 전체적인 내용 정리
- Keyword 기준으로 학부 수업에서 정리한 노트에서 발췌하거나 검색하여 따로 정리 및 요약
수학 교재는 'Mathematics for Machine learning(http://mml-book.github.io), Marc Peter Deisenroth, A.Aldo Faisal, Cheng Soon Ong'이며, 다음 링크에 공개되어있다.
이중 'Part 1'만 POSTECH 인공지능학과 지필시험 범위에 해당한다.
Part 1의 목차는 다음과 같다.
- Part 1 - Mathematical Foundations
- Introduction and Motivation
- Finding Words for Intuitions
- Two Ways to Read This Book
- Exercises and Feedback
- Linear Algebra
- Systems of Linear Equations
- Matrices
- Solving Systems of Linear Equations
- Vector Spaces
- Linear Independence
- Basis and Rank
- Linear Mappings
- Affine Spaces
- Further Reading
- Analytic Geometry
- Norms
- Inner Products
- Lengths and Distances
- Angles and Orthogonality
- Orthonormal Basis
- Orthogonal Complement
- Inner Product of Fuctions
- Orthogonal Projections
- Rotations
- Further Reading
- Matrix Decompositions
- Determinant and Trace
- Eigenvalues and Eigenvectors
- Cholesky Decomposition
- Eigendecomposition and Diagonalization
- Singular Value Decomposition
- Matrix Approximation
- Matrix Phylogeny
- Further Reading
- Vector Calculus
- Differentiation of Univariate Functions
- Partial Differentiation and Gradients
- Gradients of Vector-Valued Functions
- Gradients of Matrices
- Useful Identities for Computing Gradients
- Backpropagation and Automatic Differentiation
- Higher-Order Derivatives
- Linearization and Multivariate Taylor Series
- Further Reading
- Probability and Distributions
- Construction of a Probability Space
- Discrete and Continuous Probabilities
- Sum Rule, Product Rule, and Baye's Theorem
- Summary Statistics and Independence
- Gaussian Distribution
- Conjugacy and the Exponential Family
- Change of Variables/Inverse Transform
- Further Reading
- Continuous Optimization
- Optimization Using Gradient Descent
- Constrained Optimization and Lagrange Multipliers
- Convex Optimization
- Further Reading
- Introduction and Motivation
알고리즘 교재는 '“Algorithms,” Sanjoy Dasgupta, Christos Papadimitriou, Umesh Vazirani, McGraw-Hill, 2008.'이며, 수학 교재와 달리 공개되어있지 않고, 원서를 구매해야 한다.
시험 범위에는 Chatper 2, 3, 4, 5, 6이 포함되고, 목차는 아래와 같다. (프롤로그 등 1번에 내용을 추가했다. 2번부터 책의 chapter이다.)
- Prologue
- Big-O notation
- Divide-and-conquer algorithms
- Multiplication
- Recurrence relations
- Mergesort
- Medians
- Matrix Multiplication
- The fast Fourier transform
- Decompositions of graphs
- Why graphs?
- Depth-first search in undirected graphs
- Depth-first search in directed graphs
- Strongly connected components
- Paths in graphs
- Distances
- Breadth-first search
- Lengths on edges
- Dijkstra's algorithm
- Priority queue implementations
- Shortest paths in the presence of negative edges
- Shortest paths in dags
- Greedy algorithms
- Minimum spanning trees
- Huffman encoding
- Horn formulas
- Set cover
- Dynamic Programming
- Shortest paths in dags, revisited
- Longest increasing subsequences
- Edit distance
- Knapsack
- Chain matrix multiplication
- Shortest paths
- Independent sets in trees
2. Keywords
두 교재 뿐만 아니라 학부 과정에서 배운 (특히 자소서, 연구계획서에 썼던) 모든 내용을 세세하게 공부할 시간은 없으니, 머신러닝과 딥러닝에서 특히 중요한 내용을 keywords로 정리해 보았다. (미분, 적분 등과 같이 너무 기초적이고 포괄적인 키워드는 제외했다.)
놓치는 내용이 있다면 계속 추가할 예정이다. (써놓은 순서는 무작위이다. 생각나는대로, 공부하다가 발견한대로 작성한 것이다.)
- eigen value
- eigen vector
- adjacent matrix
- rank, basis, span
- singular value decomposition
- convex optimization
- chain rule
- gaussian distribution
- \(\beta\) distribution
- likelihood
- prior, posterior
- 베이즈 정리
- 중심극한정리
- 평균 시간복잡도, 최악 시간복잡도
- big O notation, T(n)
- quick sort
- merge sort
- BFS, DFS
- 다익스트라 알고리즘
- 프림 알고리즘
- heap (자료구조)
- linked list
- minimum spanning tree
- strongly connected component
- binary search tree
- pointer
최근댓글