250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 지니 불순도
- 항공지연
- 데이터 분리
- 지도학습 분류
- 지도학습
- 이상치 처리
- MSEE
- 뉴런 신경망
- 경사하강법
- 수치 맵핑 기법
- 결측값 처리
- 퍼셉트론
- 웹 크롤링
- 알고리즘 기술
- 평가용 데이터
- 스케이링
- 학습용데이터
- 더미 기법
- 딥러닝 역사
- 데이터 전 처리
- 분류 머신러닝 모델
- ICDL 파이썬
- 수치형 자료
- 가중치 업데이트
- 명목형
- 불순도
- 머신러닝 과정
- 회귀 알고리즘 평가
- 다중선형 회귀
- LinearRegression 모델
Archives
- Today
- Total
목록가중치 업데이트 (1)
끄적이는 기록일지

1. 딥러닝 모델 전 시간 다층 퍼셉트론까지 이야기했습니다. 모델 안에 은닉층이 많아진다면, 깊은 신경망이라는 의미의 Deep Learning이란 단어를 사용하였습니다. 2. 딥러닝 모델의 학습방법 Loss function(예측값과 실제값간의 오차값을 최소화)을 가중치(최소화하는 오차값을 최소화하는 모델의 인자)를 찾는 최적화 알고리즘 적용 3. 딥러닝 모델이 예측값 구하는 방식 1) 순전파(Forward propagation) : 입력값을 바탕으로 출력값을 계산하는 과정 ex) - 순전파를 사용하면 예측값과 실제값간의 오차값을 구하여 Loss function을 구할 수 있음 → 경사하강법(Gradient descent)을 사용하여 최적화할 수 있다. 2) 경사하강법 - 가중치를 Loss function..
AI실무
2021. 10. 15. 22:00