
딥러닝 기초 - 퍼셉트론 (Perceptron) (2) _ 단층 퍼셉트론
2022. 11. 26. 19:03
TIL/08_DL
퍼셉트론 (Perceptron) 저번 포스팅에 이어 학습!! 2022.11.26 - [분류 전체보기] - 딥러닝 기초 - 퍼셉트론(Perceptron) (1) 2. 단층 퍼셉트론 (Single-Layer Perceptron) perceptron learning 퍼셉트론은 단층 퍼셉트론과 다층 퍼셉트론으로 나뉘어진다. 단층 퍼셉트론은 입력층과 출력층 단 두 단계로만 이루어진다. 퍼셉트론의 수학 식이 다음과 같았다. $$ \hat{y} = \begin{cases} +1 & if\ \sum_i^{n}w_ix_i + b \geq 0 \\ -1\ or\ 0 & otherwise\end{cases} $$ x는 입력값이므로 이 수학 식에서 우리가 찾아야 하는 파라미터는 weight($w$)와 bias(b) 라고 할 ..

딥러닝 기초 - 퍼셉트론(Perceptron) (1)
2022. 11. 26. 18:26
TIL/08_DL
퍼셉트론(Perceptron) https://wikidocs.net/book/2155 과 수업시간에 배운 내용 정리 퍼셉트론 기초 개념 딥 러닝을 이해하기 위해서는 우선 인공 신경망에 대한 이해가 필요한데, 퍼셉트론은 초기 인공 신경망 중 하나이다. 퍼셉트론은 실제 뇌를 구성하는 신경 세포 뉴런과 비슷한 모양을 가졌다. 위의 그림에서 볼 수 있듯이 신경 세포 뉴런에서 가지돌기를 통해 신호를 받아들여 => Input, 그 신호가 일정치 이상의 크기를 가지면 => Weight(가중치), 축삭돌기를 통해서 신호를 전달 => Output 이 구조를 나타낸 것이 퍼셉트론이다. 그럼 퍼셉트론이 인공 신경망에서 어떻게 작동하는지 알아보자. 위 그림에서 볼 수 있듯이 인공 신경망은 다 수학이고 퍼셉트론도 수학 식으로 ..

BERT Review
2022. 11. 4. 15:49
TIL/08_DL
HTML 삽입 미리보기할 수 없는 소스 BERT BERT 논문과 여러 자료를 종합하여 정리 BERT 란? BERT : Bidirectional Encoder Representations from Transformers 사전 훈련 언어모델 트랜스포머를 이용하여 구현되고, 위키피디아(25억 단어)와 BooksCorpus(8억 단어)와 같은 대용량의 레이블 없는 텍스트 데이터로 사전 훈련된 언어 모델 이를 토대로 문서 분류, 질의 응답, 번역, 감성 분석 등의 작업이 가능하다 GPT와 차이? undirectional vs bidirectional GPT 모델은 원본 Transformer의 decorder layer를 사용하여 각 토큰이 텍스트의 이전 단어에서 생성되는 autoregressive task 수행 ..