Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 한빛미디어 리뷰
- 심층학습 수학
- 업무 자동화
- 데이터 과학 기본 수학
- IT 서적 리뷰
- JPub 리뷰어
- 파이썬 웹서비스
- 제이펍리뷰어
- 한빛미디어리뷰
- FastAPI
- 개발자를 위한 필수 수학
- 멀티모달AI
- The programmer's Brain
- 탈중앙화 금융
- 파이썬 자동화 교과서
- 제이펍 리뷰어
- 처음 시작하는 fastapi
- 쉽게 시작하는 캐글 데이터 분석
- 한빛미디어 리뷰어
- 생성AI
- 딥러닝을 위한 수학
- JPub리뷰어
- tidy first
- 세상에 없던 금융 디파이 입문편
- 제이펍 IT리뷰어
- 프로그래밍 인지과학
- 프로그래머의 뇌
- 한빛미디어 #인사이드머신러닝인터뷰 #머신러닝인터뷰 #머신러닝면접
- 개발자 수학
- 멀티모달 생성AI 인사이드
Archives
- Today
- Total
무말랭이 숙성중
[COURSERA] ML strategy9 본문
Comparing to human-level performance, Avoidable bias?
Cat classification을 다시 예로 들때, ERROR율이 다음과 같다고 하자.
Human 1%
Training 8%
Dev 10%
- 현재, Human과 Training error사이의 gap이 꽤 크다 => Reducing bias
이경우에 Human-level error와 training error에 집중하여 training error를 줄여야한다. 이 과정을 Reducing bias라고 하며 아래의 방법이 있다
ex) Bigger NN train, Run train set longer
Human 7.5%
Training 8%
Dev 10%
- 한편, Human error과 training error사이는 gap이 작을경우, Dev set과 Train set간의 Gap을 줄이는데 집중한다. 이를 Reducing varience라고 한다.
ex) Regularization, Getting more training data
Human level-error를 Bayes error / Bayes optimal error로 잡고 bias와 varience를 줄여나간다.
'DEEP LEARNING > COURSERA' 카테고리의 다른 글
[COURSERA] ML strategy8 (0) | 2018.06.05 |
---|---|
[COURSERA] ML strategy7 (0) | 2018.06.05 |
[COURSERA] Improving Deep Neural Networks 4 (0) | 2018.05.13 |
[COURSERA] Improving Deep Neural Networks 3 (0) | 2018.05.13 |
[COURSERA] Improving Deep Neural Networks 2 (0) | 2018.05.13 |