ai4 [2주차] 파라메터 튜닝 - '특징' 살리기 수업목표 특징을 잘 살려내는 딥러닝 알고리즘을 배우고 실제 데이터에 활용해서 취소율, 주가 등을 예측한다. - 딥러닝의 가장 큰 장점은 feature extraction 이다. 이러한 장점을 예측 시스템에 적용을 하느냐! 파라미터 튜닝 파라미터의 개념 ⇒ 최적의 모델 구현을 위해 학습률, 배치크기, 훈련반복회수, 가중치 초기화방법 등 사용자가 설정하는 변수 ⇒ 일반적으로 Parameter Tuning 이라고 하지만 실제로 파라메터는 모델이 학습하는 변수로 Weight, Bias등이고 우리가 실제로 설정하는 변수들은 하이퍼파라메터 파라미터는 모델이 알아서 학습하는 아이들이고 우리들은 어떤 하이퍼파라미터를 어떤식으로 변형하면 되는지 알아보았다. 가장 기본적인 하이퍼파라미터는? 1) 은닉층 수와 은닉 노드 수.. 2021. 10. 2. [1주차] LSTM LSTM - Long Short-Term Memory Network RNN의 변형된 모델로 긴 기간의 의존도 역시 학습할 수 있도록 설계되어 있다. LSTM의 특징 및 장점 RNN은 우리가 배웠듯이 반복모듈이 단 하나의 Layer를 가지고 있지만 LSTM은 4개의 Layer가 서로 정보를 주고받도록 설계되어있다. LSTM의 핵심은 C_t 라고 표현되는 "Cell State"이다. 말 그대로 상태를 전달 해주는 컨베이어와 같은 역할이다. 이 컨베이어벨트에서 각 t 의 데이터가 추가되면서 상태 정보가 바뀔수도, 그대로 흐르게만 할 수도 있다. C_t를 바꿀지 결정하는 인자는 "Gate"인데 총 3개의 gate를 가지고 있고 이 문들이 cell state를 제어하기도 하고 보호하기도 합니다. 정보의 전달을 중.. 2021. 9. 29. [1주차] 딥러닝 기초모델 : MLP MLP - Multi Layer Perceptron 가장 기초가되는 Feed Forward ANN (artificial neuron network) 모형이다. - 인공지능 모형의 기본! MLP는 세가지 요소가 들어간다 Input에는 input 값이 들어가고 Hidden에서는 input의 관계들을 학습한다. 비선형 모형을 학습하기 위한 가장 기본적인 딥러닝 모형이다. 일반 ARIMA 모형과는 다르게 노이즈나 Missing Value에도 잘 대처할 수 있다. 여러 형태의, 여러개의 input 을 받을 수 있다. Multi-step 예측 가능하다. MLP의 시계열 데이터에서의 한계 지속적인 생각을 하지 못한다. 예를들어 영화의 매 순간 일어나는 사건을 분류할 때 이제까지 일어났던 사건을 바탕으로 예측하지 못하.. 2021. 9. 29. [1주차] 수업목표 AI 머신러닝 딥러닝 인공지능, 왜 배울까? 흔히 AI 분석 모형을 통계 분석 모형과 가장 많이 비교한다. 이 둘은 목적과 데이터 특징의 차이가 있다. 📊 통계분석 정형데이터 분석, 선형 분석에 필요한 경우에는 통계분석으로 충분하다. 🤖 AI 빅데이터, 비정형 데이터, 이미지, 텍스트 음성은 분석 모형이 선형이 아니기 때문에(비선형이기 때문에) AI를 사용하는 것이 유용하다. 통계분석, AI 비교 Human Driven VS Data Driven AI: 사람의 직관이 들어가지 않고 데이터 자체만으로 데이터로부터 인지하지 못했던 새로운 데이터, 데이터간 관계를 발견 → 가설 발견! 통계: 전문가의 과거 경험과 직관을 기반으로 가설 수립후 모델 설계 → 가설 확인! 정형 VS. 비정형 AI: 이미지, 텍스트.. 2021. 9. 28. 이전 1 다음