본문 바로가기
인공지능 수학

선형 회귀부터 딥러닝까지: 수학적 여정

by note1328 2025. 8. 11.

Create With Whisk

선형 회귀부터 딥러닝까지의 수학적 여정은 데이터를 해석하는 가장 단순한 방식에서부터 복잡한 패턴까지 점차 범위를 확장해가는 과정입니다. 이 여정의 수학적 핵심들은 다음과 같습니다.

 

·  선형 회귀(Linear Regression)
데이터의 특성과 목표 변수(예: 집값, 시험 점수 등) 사이의 직선적 관계를 찾는 것이 목적으로, 수학적으로는 $ y = a x + b $ 같은 1차 함수 형태로 모델링합니다.


"가장 잘 맞는 선"을 찾기 위해 최소제곱법(Least Squares Method)을 사용하여 오차(각 점과 직선의 거리 제곱의 합)를 최소화하는 
값을 구합니다.


이 과정에서 평균, 분산, 행렬 연산, 미분(최적화) 등 기초 통계 수학이 요구됩니다.

 

·  다중 선형 회귀(Multiple Linear Regression)
여러 변수(설명 변수)를 써서 $ y = a_1 x_1 + a_2 x_2 + ... + b $ 식으로 확장합니다.

변수 수가 많을수록 행렬과 벡터 연산의 비중이 커지고, 역행렬 등 고등선형대수 개념을 이용하여 해를 구합니다.

 

·  딥러닝(Deep Learning)의 수학적 기반


딥러닝은 선형 회귀에서 한 단계 더 나아가, 비선형 함수, 여러 층의 신경망 구조를 사용합니다.

o  가중치(weight)와 편향(bias)의 반복적 조정

o  손실 함수(loss function): 평균제곱오차(MSE), 교차 엔트로피 등

o  경사하강법(Gradient Descent): 손실 함수를 미분해서 최적 파라미터를 찾고, 여기서 편미분, 행렬 미분, 연쇄법칙(Chain Rule) 등 고등 미적분이 쓰입니다.

o  비선형성: 활성화 함수(예: ReLU, sigmoid, tanh)로 데이터 표현 범위를 확대합니다.

 

·  실전 적용

o  실제 머신러닝/딥러닝에서는 통계적 가정, 과적합 방지, 정규화 등 수리통계적 요소와, 대규모 행렬연산의 효율성을 고려한 알고리즘(예: 백프롭, SGD)도 매우 중요합니다.

 

요약

·  선형 회귀: 평균, 분산, 미분, 행렬 등 기초 수학

·  다중 선형 회귀: 벡터, 행렬, 역행렬 등 선형대수

·  딥러닝: 미분, 최적화, 행렬 미분, 연쇄법칙, 비선형 함수 등 고수준 수학

 

이러한 수학적 원리들이 차례로 쌓이며, 단순한 데이터 관계 해석에서 인공신경망의 복잡한 패턴 학습까지 이어집니다.