Tom M. Mitchell의 머신 러닝에 관한 명품 책 Machine Learning을 읽다보면 인공 신경망은 학습 데이터(training exmaples)가 선형 분리 가능(linearly separable)하면 퍼셉트론의 가중치(weight vector)를 잘 찾는다고 돼있습다.
|
(인공 신경망 뿐 아니라 의사 결정 나무(decision tree), 베이지안 방법(Bayesian learning), 유전 알고리즘(genetic algorithm)도 다루고 있습니다. 전부 제가 좋아하는 내용ㅎㅎ)
어제 책 내용을 정리해가며 읽다가 무슨 말인지 몰라서 그냥 쭉쭉 넘어갔는데요.
오늘 구글에 검색해보니 스택 오버 플로우에 이런 식으로 설명이 돼 있네요.
원문: http://stackoverflow.com/questions/13976565/neural-networks-what-does-linearly-separable-mean
^
| N S N
s| S X N
i| N N S
z| S N S N
e| N S S N
+----------->
price
^
| S S N
s| X S N
i| S N N
z| S N N N
e| N N N
+----------->
price
스택 오버 플로우의 설명을 그대로 따왔는데요.
가로 축이 가격, 세로 축이 옷의 크기를 나타낸다고 보시면, 위쪽 그래프는 두 요인의 클래스들(N, X, S으로 구분)이 여기 저기 섞여 있습니다. 아래쪽 그래프는 두 요인의 클래스들이 가격과 사이즈에 따라 질서 정연하게 나뉘어 있죠.
아래 그래프에 선을 그으면 클래스들을 분리 가능합니다(linearly separable).
우리가 학습 시킬 데이터가 저런 규칙에 따라 클래스가 나뉜다면 인공 신경망으로 학습시키기 쉽다는 겁니다(weight vector will be converged).
'노트정리 > 인공지능' 카테고리의 다른 글
파이토치 (pytorch) 모델의 GPU memory 사용량 알아보기 (0) | 2024.02.13 |
---|---|
케라스(Keras)에서 custom loss function(손실함수) 정의하기 (0) | 2019.04.21 |
파이썬(python)에서 쓸 수 있는 딥러닝(deep learning) 라이브러리 씨아노(theano) 튜토리얼 소개 (0) | 2016.07.20 |
인공 신경망에 관한 설명. 스탠포드 대학 앤드류 응 교수의 sparse autoencoder 정리 노트로 인공신경망 이해하기 (4) | 2016.01.07 |
딥 러닝(또는 인공신경망) 자바, C++ 무료 라이브러리 (0) | 2015.11.20 |
캐글(kaggle)회장 제레미 하워드(Jeremy Howard)의 컴퓨터가 배울 수 있다는 점이 미래에 가져올 멋지고, 무시무시한 미래. (2) | 2015.08.18 |
퍼셉트론 학습 알고리즘 소스 코드 (0) | 2013.12.20 |
뉴로컴퓨터개론 공부 현황 (0) | 2013.12.19 |