일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- 수치 맵핑 기법
- 머신러닝 과정
- 데이터 분리
- ICDL 파이썬
- 수치형 자료
- 지도학습
- 분류 머신러닝 모델
- 퍼셉트론
- 지니 불순도
- 결측값 처리
- 학습용데이터
- MSEE
- 회귀 알고리즘 평가
- 명목형
- 다중선형 회귀
- 항공지연
- 불순도
- 뉴런 신경망
- 가중치 업데이트
- 평가용 데이터
- 경사하강법
- 웹 크롤링
- 더미 기법
- 스케이링
- LinearRegression 모델
- 지도학습 분류
- 이상치 처리
- 알고리즘 기술
- 데이터 전 처리
- 딥러닝 역사
- Today
- Total
목록분류 전체보기 (53)
끄적이는 기록일지
[머신러닝] 07.다양한 신경망_(1) 이미지 처리를 위한 전처리, 딥러닝 모델 [머신러닝] 06.텐서플로와 신경망_(1) 딥러닝 모델의 학습 방법 1. 딥러닝 모델 전 시간 다층 퍼셉트론까지 이야기했습니다. 모델 안에 은닉층이 많아진다면, 깊은 신경망이라는 의미의 Deep Learning kcy51156.tistory.com 1. 자연어 처리 예시 2. 자연어 처리를 위한 데이터 전 처리 1. 오류교정(Noise Canceling) : 자연어 문장의 스펠링체크및띄어쓰기오류교정 안녕 하세요. 반갑 스니다. -> 안녕하세요. 반갑습니다. 2. 토큰화(Tokenizing) : 문장을 토큰(Token)으로 나눔, 토큰은 어절, 단어 등으로 목적에 따라 다르게 정의 “딥러닝 기초 과목 수강하고 있습니다.” =>..
[머신러닝] 06.텐서플로와 신경망_(1) 딥러닝 모델의 학습 방법 1. 딥러닝 모델 전 시간 다층 퍼셉트론까지 이야기했습니다. 모델 안에 은닉층이 많아진다면, 깊은 신경망이라는 의미의 Deep Learning이란 단어를 사용하였습니다. 2. 딥러닝 모델의 학습방법 Loss fu kcy51156.tistory.com 이미지 처리와 자연어 처리를 위한 데이터 전 처리와 딥러닝 모델을 알아보도록 하겠습니다. 1. 이미지 처리를 이용한 예시 - 이미지에 있는 어떤 동물인지 분류하고자 할 때, - 컴퓨터에게 이미지는 각 픽셀 값을 가진 숫자 배열로 인식하게 합니다. 2. 이미지 전 처리 - 모두 같은 크기를 갖는 이미지로 통일 1) 가로 세로 픽셀 사이즈를 표현하는 해상도 통일 2) 색을 표현하는 방식 통일(R..
[머신러닝] 06.텐서플로와 신경망_(1) 딥러닝 모델의 학습 방법 1. 딥러닝 모델 전 시간 다층 퍼셉트론까지 이야기했습니다. 모델 안에 은닉층이 많아진다면, 깊은 신경망이라는 의미의 Deep Learning이란 단어를 사용하였습니다. 2. 딥러닝 모델의 학습방법 Loss fu kcy51156.tistory.com 이제 텐서플로우로 딥러닝을 구현해보도록 하겠습니다. 텐서플로우(Tensorflow) - 유연하고, 효율적이며, 확장성있는 딥러닝 프레임워크 - 대형 클러스터 컴퓨터부터 스마트폰까지 다양한 디바이스에서 동작가능. 1. 딥러닝 모델 구현 순서 1) 데이터 전 처리하기 2) 딥러닝모델 구축하기 3) 모델 학습시키기 4) 평가 및 예측하기 2. 데이터 전 처리 1) Tensorflow딥러닝 모델은 ..
1. 딥러닝 모델 전 시간 다층 퍼셉트론까지 이야기했습니다. 모델 안에 은닉층이 많아진다면, 깊은 신경망이라는 의미의 Deep Learning이란 단어를 사용하였습니다. 2. 딥러닝 모델의 학습방법 Loss function(예측값과 실제값간의 오차값을 최소화)을 가중치(최소화하는 오차값을 최소화하는 모델의 인자)를 찾는 최적화 알고리즘 적용 3. 딥러닝 모델이 예측값 구하는 방식 1) 순전파(Forward propagation) : 입력값을 바탕으로 출력값을 계산하는 과정 ex) - 순전파를 사용하면 예측값과 실제값간의 오차값을 구하여 Loss function을 구할 수 있음 → 경사하강법(Gradient descent)을 사용하여 최적화할 수 있다. 2) 경사하강법 - 가중치를 Loss function..