퍼셉트론의 구조
입력값마다 다른 weight을 곱한 값을 모두 더하고 여기에 bias라고 불리는 값을 더한다.
더해진 총 합은 활성화 함수에 적용, 활성화 수준을 계산한 값이 출력된다.
여기서, 출력값과 목표 값이 다른 경우 Error를 통해 가중치를 업데이트한다.
결국 학습이라는 것은 이 가중치를 반복적으로 조정하면서 알맞은 가중치와 bias, 즉 학습 목표인 두 부류로 선형분리하기 위한 학습 벡터를 찾아내는 과정이라고 볼 수 있다.
단층 퍼셉트론의 구현
결과가 정확하거나 유사하게 나오는 것을 볼 수 있다.
단층 퍼셉트론의 한계
xor과 같은 경우에는 하나의 직선으로 선형분리할 수 없다는 한계가 있다.
다층 퍼셉트론
NAND와 OR을 AND한 결과를 내어, 계층을 두개로 만들면 (다층 퍼셉트론을 만들면) 해결할 수 있다.