일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 제이펍 리뷰어
- 파이썬 웹서비스
- 탈중앙화 금융
- 개발자 수학
- 생성AI
- FastAPI
- JPub리뷰어
- 프로그래머의 뇌
- 심층학습 수학
- 파이썬 자동화 교과서
- 처음 시작하는 fastapi
- JPub 리뷰어
- 한빛미디어 #인사이드머신러닝인터뷰 #머신러닝인터뷰 #머신러닝면접
- 쉽게 시작하는 캐글 데이터 분석
- 업무 자동화
- The programmer's Brain
- 멀티모달 생성AI 인사이드
- 딥러닝을 위한 수학
- 한빛미디어리뷰
- 제이펍 IT리뷰어
- 개발자를 위한 필수 수학
- 세상에 없던 금융 디파이 입문편
- IT 서적 리뷰
- tidy first
- 한빛미디어 리뷰
- 제이펍리뷰어
- 멀티모달AI
- 데이터 과학 기본 수학
- 한빛미디어 리뷰어
- 프로그래밍 인지과학
- Today
- Total
무말랭이 숙성중
[COURSERA] Improving Deep Neural Networks 2 본문
Bias & Variance에 대해 알아보자.
Bias는 편향된, 즉 제대로 Classification 되지 않은 상태이며
Variance는 학습 데이터가 너무 고려된 나머지 Overfitting 된 상태이다.
<Coursera: Improving Deep N.N 강의>
Bias와 Bariance를 어떻게 구별할것인가?
Cat classification으로 생각해보자
A B C D
Train set error: 1% 15% 15% 0.5%
Dev set error: 11% 16% 30% 1.0%
A: Overfitting = high variance
B: Underfitting = high bias (* Train, Dev error 차이가 1%밖에 차이가 안난다)
C: high bias, high variance
D: low bias, low variance
위의 결과는 Human error = Optimal error = base error 가 0%에 가깝다고 할 경우로써, 만약 Oprimal error가 15%대라면 B의 경우도 reasonable하다. low bias, low variance로 구분할 수 있다는 말이다.
단, 여기서의 가정은 train과 dev set이 same distribution일 경우이다. 다를 경우엔 train과 dev set error율이 차이가 날 수 있다.
다시 정리하자면
high bias => more linear : just not fitting
high variance => more curved : too much flexibility
두 경우에 따라 해결하는 방법이 다르다.
'DEEP LEARNING > COURSERA' 카테고리의 다른 글
[COURSERA] Improving Deep Neural Networks 4 (0) | 2018.05.13 |
---|---|
[COURSERA] Improving Deep Neural Networks 3 (0) | 2018.05.13 |
[COURSERA] Improving Deep Neural Networks 1 (0) | 2018.05.12 |
[COURSERA] ML strategy6 (0) | 2018.05.08 |
[COURSERA] ML strategy5 (0) | 2018.04.23 |