반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- andoriod with kotlin
- 안드로이드 구조
- 경제신문스크랩
- 독서 #독서후기 #피로사회 #행동과잉 #긍정과잉
- 예측선
- 과적합
- MRC
- 밑시딥2
- 다중분류
- 선형회귀
- ESG
- k겹 교차검증
- 딥페이크
- 학습 자동 중단
- 로지스틱 회귀법
- 경사하강법
- 면접왕 이형
- 밑바닥부터 시작하는 딥러닝
- 안드로이드
- ESG 채권
- 베스트 모델
- nlp
- gradiant descent
- GPT-3
- 밑시딥
- 보이스피싱
- 코틀린
- 뉴로 심볼릭
- 모두의 딥러닝
- 면접왕이형
Archives
- Today
- Total
목록로지스틱 회귀법 (1)
Practice makes perfect!
[모두의 딥러닝] 5장 로지스틱 회귀
1. 로지스틱 회귀의 정의 합격, 불합격과 같이 참(1)과 거짓(0)값을 갖는 점들의 특성을 담아낼 수 있는 선을 긋는 작업이다. 1과 0 사이의 값이 없으므로 직선으로 그리기 어렵다. 따라서 아래와 같이 S자 형태로 그려진다. 2. 시그모이드 함수 시그모이드 함수는 y값이 0과 1 사이이다. 이 식에서 a는 그래프의 경사도를, b는 그래프의 좌우 이동을 의미한다. 따라서 a와 b의 값에 따라 오차가 변한다. a값에 따라 변화하는 오차를 그래프로 나타내면 아래와 같다. a 값이 작을 때는 0 또는 1의 값을 아예 나타내지 않는 직선이 된다. 따라서 오차가 무한대로 증가한다. 하지만 a 값이 크다고 해서 오차가 사라지지는 않는다. b값이 너무 크거나 작을 경우 오차는 위와 같이 이차함수 그래프와 유사한 형..
Study/딥러닝
2021. 4. 11. 12:30