인공지능( 컴퓨터로 문제해결, 1950년~)

머신러닝( 예측통계 문제해결, = 지도 학습 + 비지도 학습)

딥러닝( '**신경망'**을 통한 문제해결)

예측 통계 문제(회귀/분류/클러스터링)

데이터사이언스( 통계 알고리즘, 상관 관계, 100년 역사)으로 해결 → 머신러닝으로 해결 → 딥러닝으로 해결

*단, 사실상 딥러닝= 머신러닝 화되고 있다.

딥러닝

신경망을 활용해 추측 통계 문제( 예측, 분류, 클러스터링)를 풀기위한 기술

신경망이란

#소자(element)

#순수신경망

  1. 퍼셉트론( 기본 소자)

(1) 뉴런(사람 뇌의 신경세포)과 같은 역할 수행

https://s3-us-west-2.amazonaws.com/secure.notion-static.com/219105f7-fa49-4d01-83b6-c6790a27bfb2/1__Epn1FopggsgvwgyDA4o8w.png

https://medium.com/nerd-for-tech/flux-prediction-using-single-layer-perceptron-and-multilayer-perceptron-cf82c1341c33

https://s3-us-west-2.amazonaws.com/secure.notion-static.com/a1756499-66dd-4a95-b339-d7f60ae82077/perceptron01.png

(2) 한계 : XOR 해결 불가( 1차 암흑기~ )

  1. MLP( 신경망)

(0) 신경망의 실질적인 시작점 = MLP ← 주류(공통 부분)

(1) XOR문제 해결(1차 암흑기 극복 : 58~86년**)**

퍼셉트론을 '여러 단'( 레이어로)으로 쌓은 → 신경망

레이어 구성 = Input Layer — Hidden Layer — Output Layer

(2) MLP 조건

  1. 은닉 계층이 최소 1개 이상

  2. Fully connected(완전연결)

같은 레이어끼리는 연결x , 다른 레이어끼리 노드들은 모두 연결

  1. 모든 엣지(간선) 별로 가중치가 존재한다( -1≤ w ≤ 1)

(3) 퍼셉트론을 여러단 쌓아서 만든 레이어 구조

https://s3-us-west-2.amazonaws.com/secure.notion-static.com/3f4e860d-2682-46ab-b15e-3d088a48c4a8/A-Multilayer-Perceptron-with-one-input-two-hidden-and-one-output-layer.png

https://s3-us-west-2.amazonaws.com/secure.notion-static.com/88bf0911-0933-445b-ac7a-817f48da63a9/perceptron03-1024x556.png

http://hleecaster.com/ml-perceptron-concept/

(4) 실습 by.다이어그램

Tensorflow - Neural Network Playground

(히든 레이어만 노출)

(5) 학습

가중치를 바꿔가면서 패턴을 만들어가면서 학습한다.

신경망(딥러닝)에서의 학습 = 전파 +역전파를 묶어서 '학습'이라 한다.

한계점

(6) 이를( 딥러닝, 신경망, 인공지능) 통해 궁극적으로 풀려고 하는 문제( 현재로서 끝판왕)

= 회귀(예측) , 분류

#응용신경망

  1. CNN

처리해야하는 데이터 양이 많은 경우

앞단에 영상처리 레이어추가, 위에는 MLP

영상/이미지 특화

  1. RNN

순환 신경망

출력을 다시 입력으로 넣어 여러번 반복할 수 있도록 하는 알고리즘

자연어, 음성처리 특화

인터렉션(인터페이스) : NLP, NLU, NLG

NLP 모델의 진화?과정

(Vec2Vec Seq2Seq) → BERT → XLNet→ RoBERTa → MT-DNN→ T5 → Big Bird

https://s3-us-west-2.amazonaws.com/secure.notion-static.com/08db5f22-74ad-41a3-ad70-ed8a756dc6fd/img1.daumcdn.png

활용되는 기술 : AI ⊃ ML ⊃ NN ⊃ DL(CNN, RNN, DNN ..)