ML,DL,LangChain/01_MathForAi
-
AI Lecture Series · Classification 로지스틱 회귀Logistic Regression "예/아니오"를 판단하는 이진 분류의 기본기 🎯 🎯로지스틱 회귀란? 선형 회귀의 한계 직선으로 "합격/불합격" 판단? 선형 회귀 출력: −∞ ~ +∞ 확률은 반드시 0 ~ 1 사이여야 해요. 직선은 이 조건을 만족할 수 없어요! ✗ 로지스틱 회귀의 해결 Sigmoid로 0~1 사이로 압축! 선형 출력 z를 σ(z)에 통과 → 출력이 항상 0~1 사이 ✓ → "합격 확률"처럼 해석 가능! //..
로지스틱 회귀AI Lecture Series · Classification 로지스틱 회귀Logistic Regression "예/아니오"를 판단하는 이진 분류의 기본기 🎯 🎯로지스틱 회귀란? 선형 회귀의 한계 직선으로 "합격/불합격" 판단? 선형 회귀 출력: −∞ ~ +∞ 확률은 반드시 0 ~ 1 사이여야 해요. 직선은 이 조건을 만족할 수 없어요! ✗ 로지스틱 회귀의 해결 Sigmoid로 0~1 사이로 압축! 선형 출력 z를 σ(z)에 통과 → 출력이 항상 0~1 사이 ✓ → "합격 확률"처럼 해석 가능! //..
2025.10.15 -
AI Lecture Series · Visual Learning 미니배치 경사하강법Mini-Batch Gradient Descent 왜 전체 데이터를 한 번에 쓰지 않을까? 🤔 1왜 미니배치가 필요할까? 😵 Full-Batch GD의 문제 데이터 100만 개를 모두 써서 기울기 계산 한 번 업데이트에 메모리·시간 엄청 소요 현실에서 GPU 메모리에 안 들어감 지역 최솟값(local minima)에 갇히기 쉬움 😬 SGD (1개씩)의 문제 데이터 1개만 써서 기울기 계산 업데이트가 매우 빠르지만 방향이 들쭉날쭉 노이즈가 많아 수렴이 불..
미니배치 경사하강법(MGD)AI Lecture Series · Visual Learning 미니배치 경사하강법Mini-Batch Gradient Descent 왜 전체 데이터를 한 번에 쓰지 않을까? 🤔 1왜 미니배치가 필요할까? 😵 Full-Batch GD의 문제 데이터 100만 개를 모두 써서 기울기 계산 한 번 업데이트에 메모리·시간 엄청 소요 현실에서 GPU 메모리에 안 들어감 지역 최솟값(local minima)에 갇히기 쉬움 😬 SGD (1개씩)의 문제 데이터 1개만 써서 기울기 계산 업데이트가 매우 빠르지만 방향이 들쭉날쭉 노이즈가 많아 수렴이 불..
2025.10.14 -
AI Lecture Series · Optimization 확률적 경사하강법Stochastic Gradient Descent Full Batch GD의 한계를 극복한 방법 — 그리고 그 한계까지 👀 1Full Batch GD의 한계 — 왜 SGD가 등장했나? FULL BATCH GD 전체 N개 데이터로 기울기 계산 ✗ 데이터 100만 개면 기울기 1번 계산에 100만 번 연산 → 극도로 느림 ✗ 전체를 메모리에 올려야 함 → 메모리 부족 ✓ 기울기가 정확하고 수렴이 안정적 SGD (1개씩) 데이터 1개로 기울기 계산 후 즉시 업데이트 ✓ 데이터 1개만 ..
확률적 경사하강법(SGD)AI Lecture Series · Optimization 확률적 경사하강법Stochastic Gradient Descent Full Batch GD의 한계를 극복한 방법 — 그리고 그 한계까지 👀 1Full Batch GD의 한계 — 왜 SGD가 등장했나? FULL BATCH GD 전체 N개 데이터로 기울기 계산 ✗ 데이터 100만 개면 기울기 1번 계산에 100만 번 연산 → 극도로 느림 ✗ 전체를 메모리에 올려야 함 → 메모리 부족 ✓ 기울기가 정확하고 수렴이 안정적 SGD (1개씩) 데이터 1개로 기울기 계산 후 즉시 업데이트 ✓ 데이터 1개만 ..
2025.10.13 -
AI Lecture Series · Visual Learning 경사하강법Gradient Descent AI가 "학습"한다는 게 정확히 뭔지, 눈으로 직접 확인해봐요 👀 🎯경사하강법을 왜 쓸까? PROBLEM AI가 틀린 답을 내고 있어요 모델의 가중치(w)가 최적값이 아니라서 예측값과 실제값 사이에 오차(Loss)가 발생해요. 예) 실제 집값 5억 → 모델 예측 3억 Loss = (5 - 3)² = 4 → SOLUTION Loss를 최소로 만드는 w를 ..
경사하강법 시뮬레이션(FGD)AI Lecture Series · Visual Learning 경사하강법Gradient Descent AI가 "학습"한다는 게 정확히 뭔지, 눈으로 직접 확인해봐요 👀 🎯경사하강법을 왜 쓸까? PROBLEM AI가 틀린 답을 내고 있어요 모델의 가중치(w)가 최적값이 아니라서 예측값과 실제값 사이에 오차(Loss)가 발생해요. 예) 실제 집값 5억 → 모델 예측 3억 Loss = (5 - 3)² = 4 → SOLUTION Loss를 최소로 만드는 w를 ..
2025.10.12 -
AI Lecture Series · Neural Networks 활성화 함수Activation Function 신경망에 '생명력'을 불어넣는 비선형 변환기 ✨ 1활성화 함수가 없다면? — 선형의 함정 😵 활성화 함수 없음 아무리 층을 깊이 쌓아도결국 직선 하나와 동일해요. W₃(W₂(W₁x+b₁)+b₂)+b₃ = Wx+b ✅ 활성화 함수 있음 각 층 사이에 비선형 함수가 끼어들어굴곡진 복잡한 패턴을 학습할 수 있어요! 이미지 분류 · 음성 인식 · 언어 번역 모두 가능 🚀 ▼ 층을 쌓을수록 어떻게 달라지는지 직접 확인해봐요! 활성화 함수 없음 활성화 함수 있음 (ReLU) ..
활성화 함수AI Lecture Series · Neural Networks 활성화 함수Activation Function 신경망에 '생명력'을 불어넣는 비선형 변환기 ✨ 1활성화 함수가 없다면? — 선형의 함정 😵 활성화 함수 없음 아무리 층을 깊이 쌓아도결국 직선 하나와 동일해요. W₃(W₂(W₁x+b₁)+b₂)+b₃ = Wx+b ✅ 활성화 함수 있음 각 층 사이에 비선형 함수가 끼어들어굴곡진 복잡한 패턴을 학습할 수 있어요! 이미지 분류 · 음성 인식 · 언어 번역 모두 가능 🚀 ▼ 층을 쌓을수록 어떻게 달라지는지 직접 확인해봐요! 활성화 함수 없음 활성화 함수 있음 (ReLU) ..
2024.04.26