Vector quantization 16개의 숫자를 2개의 숫자로 표현 => 2개의 숫자를 다시 16개의 숫자로 복원 Encoder => 정보를 더 적은 숫자로 표현Decoder => 적은 숫자로 표현한 정보를 다시 복원 Vector Quantization => VQ => 줄이고 또 줄인다.(Encoding 숫자를 쓰느게 아니라 미리 정해놓은 유한 개의 vectors중 제일 가까운 하나로 대충 퉁치는 방식) 왜곡이 발생함에도VQ를 왜 쓰는가? 인코딩 덩어리를 잘 만들기 위해서그림을 잘 만들기 위해서generative model로 잘 만들기 위해서정수 숫자의 나열을 잘 만든다.장점 : 인코딩 수가 유한함 https://www.youtube.com/watch?v=mypBS6tPPUAVector quantization 기본 Encoder https://www.youtube.com/watch?v=WLCDkfFXbj0 요즘 아침마다 일찍 출근해서 한 시간 정도 논문 리뷰 영상 및 모델 구조 관련된 공부를 하고 있다. Encoder에 대한 기본적인 흐름을 잘 설명해준 영상이다. Encoder Decoder Transformer Transformer https://www.youtube.com/watch?v=6s69XY025MU 많은 Transformer 영상들을 봤는데 기본적인 구조를 가장 잘 설명해주는 영상이다.(참고로 재밌다.) 요즘은 매일 일찍 출근해서 한 시간 정도 논문 영상을 보고 있다. 우선 Transformer를 다시 꾸준히 공부합시다. Positional Encoding : 입력 문장에서 순서 정보를 기억, 저장 MaskedMulti-Head Attention : decoder영역에서 추론해야하는 단어의 뒤 문장들은 사용하지 않도록 Masking 처리 이전 1 다음