250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 이상치 처리
- 알고리즘 기술
- 경사하강법
- 항공지연
- 가중치 업데이트
- 더미 기법
- MSEE
- 퍼셉트론
- 수치형 자료
- 명목형
- 뉴런 신경망
- 평가용 데이터
- 딥러닝 역사
- 회귀 알고리즘 평가
- LinearRegression 모델
- 지니 불순도
- 데이터 전 처리
- 결측값 처리
- 머신러닝 과정
- 지도학습
- 데이터 분리
- 학습용데이터
- 스케이링
- ICDL 파이썬
- 지도학습 분류
- 수치 맵핑 기법
- 분류 머신러닝 모델
- 다중선형 회귀
- 불순도
- 웹 크롤링
Archives
- Today
- Total
끄적이는 기록일지
[머신러닝] 06.텐서플로와 신경망_(1) 딥러닝 모델의 학습 방법 본문
728x90
1. 딥러닝 모델
전 시간 다층 퍼셉트론까지 이야기했습니다.
모델 안에 은닉층이 많아진다면, 깊은 신경망이라는 의미의 Deep Learning이란 단어를 사용하였습니다.
2. 딥러닝 모델의 학습방법
Loss function(예측값과 실제값간의 오차값을 최소화)을
가중치(최소화하는 오차값을 최소화하는 모델의 인자)를 찾는 최적화 알고리즘 적용
3. 딥러닝 모델이 예측값 구하는 방식
1) 순전파(Forward propagation) : 입력값을 바탕으로 출력값을 계산하는 과정
ex)
- 순전파를 사용하면 예측값과 실제값간의 오차값을 구하여 Loss function을 구할 수 있음
→ 경사하강법(Gradient descent)을 사용하여 최적화할 수 있다.
2) 경사하강법
- 가중치를 Loss function값이 작아지게 업데이트하는방법
- 가중치는 Gradient 값을 사용하여 업데이트를 수행함
- Gradient 값은 각 가중치마다 정해지며, 역전파(Backpropogation)를 통하여 구할 수 있음
3) 역전파(Backpropogation) : 순전파의 반대방향으로 이루어지는 과정
4) 가중치 업데이트 과정 : 이를 반복하여 Lossfunction을 제일 작게 만드는 가중치를 구함
4. 딥러닝 모델의 학습 정리
1. 학습용feature 데이터를 입력하여 예측값 구하기(순전파)
2. 예측값과 실제값 사이의 오차구하기(Loss 계산)
3. Loss를 줄일 수 있는 가중치 업데이트하기(역전파)
4. 1~3번 반복으로 Loss를 최소로 하는 가중치 얻기
728x90
'AI실무' 카테고리의 다른 글
[머신러닝] 07.다양한 신경망_(1) 이미지 처리를 위한 전처리, 딥러닝 모델 (0) | 2021.11.26 |
---|---|
[머신러닝] 06.텐서플로와 신경망_(2) 딥러닝 구현 (0) | 2021.10.15 |
[딥러닝] 01.퍼셉트론_(2)퍼셉트론 (0) | 2021.10.08 |
[딥러닝] 01.퍼셉트론_(1)딥러닝 (0) | 2021.10.08 |
[머신러닝] 04.지도학습-분류_(3) 분류 평가 지표 (0) | 2021.10.03 |
Comments