- AI Dev - 인공지능 개발자 모임
- 추천도서
http://www.yes24.com/Product/Goods/30869618
< 목차 >
- 1. 선형대수란
- 2. 기초 지식
- 3. 행렬(Ⅰ)
- 4. 행렬(Ⅱ)
- 5. 벡터(Ⅰ)
- 6. 벡터(Ⅱ)
- 7. 선형사상
- 8. 고유값과 고유벡터
딥러닝의 수학적 기반이 되는 선형대수에 대한 책입니다. 만화로 되어 있어 부담없이 읽을 수 있습니다. 설명도 그리 나쁘지 않은 편이라, 전체적인 개념을 이해하는데 도움이 될 듯 합니다.
대수란 방정식을 푸는 것을 말합니다. 선형대수(linear algebra)는 다음의 특징을 만족하는 방정식을 가리킵니다.
f(x1 + x2) = f(x1) + f(x2)
f(cx) = cf(x)
보통 1차 함수가 해당되며 2차 함수 이상은 선형을 만족하지 않습니다. 선형대수에는 벡터와 행렬이 포함되는데, 벡터는 사실 행렬의 특수한 형태라고 볼 수 있습니다.
행렬이 처음 탄생한 이유는 연립 방정식을 좀 더 쉽게 계산하기 위해서였습니다. 예를 들면, 다음과 같이 두 개의 방정식을 하나의 행렬로 표시할 수 있습니다.
y1 = ax1 + bx2
y2 = cx1 + dx2
(y1) = (a b) (x1)
(y2) (c d) (x2)
딥러닝에서 행렬을 쓰는 이유는 속도가 빠르기 때문입니다. 만약 1000개의 데이터씩 배치로 묶는다면, 1000개 행을 가진 행렬로 만들어 한 번에 연산이 가능합니다. 3축 이상의 행렬을 텐서(tensor)라고 부르는데, 여기서 텐서플로라는 이름이 생겨났습니다.
또한 신경망에서 마지막에 활성화 함수를 거치는 것도 선형 특징과 관련이 있습니다. 딥러닝으로 아무리 깊은 층을 연결해도, 단순히 행렬곱만 해서는 결국 선형일 뿐입니다. 비선형인 활성화 함수로 한 번 공간을 변형시켜야, 신경망도 비선형으로 분류가 가능해집니다.