Page 116 - 인공지능 수학 교과서
P. 116
표의 입력값 x와 실젯값 y의 자료에 대한 예측 모델이
x 1 2 3 4
매개변수 a와 b의 기하적인 f(x)=ax+b라고 하자. 매개변수의 값이 다음 두 가지
의미 y 1 3 3 5
경우로 주어질 때 오차를 각각 구해 보자.
직선 f(x)=ax+b에 대하
여 a는 기울기를, b는 y절편
을 의미한다.
(1) a=1, b=0.5일 때, 예측 모델은 함수 f_1(x)=x+0.5이다.
(2) a=0, b=3일 때, 예측 모델은 함수 f_2(x)=3이다.
두 함수 f_1, f_2에 의하여 발생하는 오차를 표로 나타내면 다음과 같다.
A B
입력값 실젯값 f_1의 예측값 f_2의 예측값 f_1에 의한 오차 f_2에 의한 오차
x y f_1(x) f_2(x) f_1(x)-y f_2(x)-y
1 1 1.5 3 1.5-1= 0.5 3-1=2
2 3 2.5 3 2.5-3=-0.5 3-3=0
3 3 3.5 3 3.5-3= 0.5 3-3=0
4 5 4.5 3 4.5-5=-0.5 3-5=-2
이때 함수 f(x)=ax+b가 자료를 잘 반영할 수 있는 예측 모델이 되려면 오차가
작을수록 좋다. 두 함수 f_1, f_2에 의한 오차는 각각 0.5,-0.5, 0.5,-0.5와 2, 0, 0,
-2 이고, 이 오차를 비교하기 위한 함수의 도입에 대해 알아보자.
▶ 손실함수: Error function ➋ 손실함수의 뜻
매개변수 a, b의 값에 따라 정해진 함수 f(x)=ax+b의 오차를 표현하는 함수를
▶ 손실함수를 나타내는 기 손실함수라고 하고, 기호로 E(a, b)와 같이 나타낸다.
호 E(a, b)에서 E는 오
손실함수는 주어진 자료와 인공지능의 학습 방식에 따라 여러 형태로 정의된다.
차를 의미하는 error의
첫 글자이다. 여기서는 손실함수를 오차의 제곱의 평균으로 정의하여 다음과 같이 나타낸다.
▶ f(x)=ax+b에 대하여
(오차)=f(x)-y E(a, b)={(오차)^2의 평균}
=(ax+b)-y
두 함수 f_1(x)=x+0.5, f_2(x)=3에 대한 손실함수의 값을 각각 구하면 다음과 같다.
0.5^2+(-0.5)^2+0.5^2+(-0.5)^2 0.25+0.25+0.25+0.25
E(1, 0.5)= = =0.25
4 4
2^2+0^2+0^2+(-2)^2 4+0+0+4
E(0, 3)= = =2
4 4
114 Ⅳ. 최적화