Perceptrons and linear classifier
- Perceptron
- 인공신경망의 가장 기본적인 형태
- Linear classifier
- 데이터를 분류하는데 사용되는 선형 방정식
- input: feature values
- 각각의 feature는 가중치
- sum 은 activation
- If the activation is:
- Positive, output +1
- Negative, output -1
- If the activation is:
Multi-class perceptrons
- Multi-class perceptrons 다중 클래스 퍼셉트론
- 구조
- 입력층
- feature 데이터를 받고
- 은닉층
- 비선형 변환
- 출력층
- 입력층
- 구조
Logistic regression
- Logisitc Regression 로지스틱 회귀
- 선형 회귀의 원리를 분류 문제에 적용한 모델
Softmax
- 확률적 결정
- 시그모이드, 소프트맥스는 퍼셉트론 모델이 확률적 결정을 내릴 수 있도록 함
- Sigmoid
- 이진 분류 문제
- 0~1 값을 출력
- 주어진 데이터 포인트가 양성 클래스에 속할 확률
- Softmax
- 멀티 클래스 분류 문제
- 여러 클래스가 있는 경우, 각 클래스에 대한 확률 분포를 출력하여 가장 확률이 높은 클래스를 선택
- 멀티 클래스 퍼셉트론: 멀티 클래스 퍼셉트론에서는 각 클래스 y에 대한 가중치 벡터 wy와 특성 벡터 f(x)의 점곱을 계산하여 활성화를 구합니다. 이 활성화 값이 가장 높은 클래스가 최종적으로 선택됩니다.
- 이진 퍼셉트론: 이진 퍼셉트론은 멀티 클래스 퍼셉트론의 특수한 경우입니다. 이진 분류 문제에서는 두 개의 클래스가 있는데, 일반적으로 이들을 +1과 -1로 표현합니다.
- +1의 클래스에 대한 가중치 벡터를 w라고 하고, 이는 학습을 통해 얻어집니다.
- 1의 클래스에 대한 가중치 벡터는 항상 0으로 설정됩니다. 즉, -1 클래스의 활성화는 항상 0입니다.
- w⋅f의 값이 양수일 경우, +1 클래스의 활성화인 w⋅f는 0보다 크므로, +1 클래스가 선택됩니다.
- w⋅f의 값이 음수일 경우, -1 클래스의 활성화인 0이 w⋅f보다 크므로, -1 클래스가 선택됩니다.
- 소프트맥스와 시그모이드 함수는 이 문맥에서 직접 언급되지 않았지만, 일반적으로 이진 분류에서는 시그모이드 함수가, 멀티 클래스 분류에서는 소프트맥스 함수가 각각 사용됩니다. 시그모이드 함수는 단일 출력을 0과 1 사이의 확률로 변환하는 반면, 소프트맥스 함수는 여러 출력을 확률 분포로 변환하여 모든 클래스의 확률 합이 1이 되도록 합니다.
'인공지능 > Artificial Intelligence (COSE361)' 카테고리의 다른 글
[인공지능] Chapter 20. Optimization and Neural Networks (0) | 2023.12.22 |
---|---|
[인공지능] Chapter 18. Machine Learning and Naive Bayes (1) | 2023.12.20 |
[인공지능] Chapter 17. Particle Filters and Dynamic Bayes Nets (1) | 2023.12.20 |
[인공지능] Chapter 16. Hidden Markov Models (0) | 2023.12.20 |
[인공지능] Chapter 15. Decision Network (0) | 2023.12.19 |