250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- 평가용 데이터
- 뉴런 신경망
- 경사하강법
- 데이터 분리
- 지니 불순도
- 분류 머신러닝 모델
- 머신러닝 과정
- 학습용데이터
- LinearRegression 모델
- 항공지연
- 명목형
- 더미 기법
- 이상치 처리
- 수치 맵핑 기법
- 지도학습
- 데이터 전 처리
- 웹 크롤링
- 스케이링
- 결측값 처리
- 가중치 업데이트
- MSEE
- ICDL 파이썬
- 불순도
- 퍼셉트론
- 딥러닝 역사
- 회귀 알고리즘 평가
- 수치형 자료
- 다중선형 회귀
- 지도학습 분류
- 알고리즘 기술
Archives
- Today
- Total
끄적이는 기록일지
[머신러닝] 06.텐서플로와 신경망_(1) 딥러닝 모델의 학습 방법 본문
728x90
1. 딥러닝 모델
전 시간 다층 퍼셉트론까지 이야기했습니다.
모델 안에 은닉층이 많아진다면, 깊은 신경망이라는 의미의 Deep Learning이란 단어를 사용하였습니다.
2. 딥러닝 모델의 학습방법
Loss function(예측값과 실제값간의 오차값을 최소화)을
가중치(최소화하는 오차값을 최소화하는 모델의 인자)를 찾는 최적화 알고리즘 적용
3. 딥러닝 모델이 예측값 구하는 방식
1) 순전파(Forward propagation) : 입력값을 바탕으로 출력값을 계산하는 과정
ex)
- 순전파를 사용하면 예측값과 실제값간의 오차값을 구하여 Loss function을 구할 수 있음
→ 경사하강법(Gradient descent)을 사용하여 최적화할 수 있다.
2) 경사하강법
- 가중치를 Loss function값이 작아지게 업데이트하는방법
- 가중치는 Gradient 값을 사용하여 업데이트를 수행함
- Gradient 값은 각 가중치마다 정해지며, 역전파(Backpropogation)를 통하여 구할 수 있음
3) 역전파(Backpropogation) : 순전파의 반대방향으로 이루어지는 과정
4) 가중치 업데이트 과정 : 이를 반복하여 Lossfunction을 제일 작게 만드는 가중치를 구함
4. 딥러닝 모델의 학습 정리
1. 학습용feature 데이터를 입력하여 예측값 구하기(순전파)
2. 예측값과 실제값 사이의 오차구하기(Loss 계산)
3. Loss를 줄일 수 있는 가중치 업데이트하기(역전파)
4. 1~3번 반복으로 Loss를 최소로 하는 가중치 얻기
728x90
'AI실무' 카테고리의 다른 글
[머신러닝] 07.다양한 신경망_(1) 이미지 처리를 위한 전처리, 딥러닝 모델 (0) | 2021.11.26 |
---|---|
[머신러닝] 06.텐서플로와 신경망_(2) 딥러닝 구현 (0) | 2021.10.15 |
[딥러닝] 01.퍼셉트론_(2)퍼셉트론 (0) | 2021.10.08 |
[딥러닝] 01.퍼셉트론_(1)딥러닝 (0) | 2021.10.08 |
[머신러닝] 04.지도학습-분류_(3) 분류 평가 지표 (0) | 2021.10.03 |
Comments