Large Language Model (2) 썸네일형 리스트형 LLM (Large Language Model) 기초 1. 트랜스포머 (Transformer) 1.1. 시퀀스 투 시퀀스(Sequence-to-Sequence) 모델 입력 시퀀스(Input Sequence)를 받아 출력 시퀀스(Output Sequence)를 생성하는 모델인코더(Encoder): 입력 시퀀스를 받아 의미를 추출하고, 이를 고정된 길이의 벡터인 컨텍스트 벡터(Context Vector)로 변환하여 압축함컨텍스트 벡터(Context Vector): 인코더가 입력 시퀀스를 요약하여 생성한 고정 길이의 벡터로, 디코더에 전달되어 출력 시퀀스 생성을 위한 핵심 정보를 제공함디코더(Decoder): 인코더에서 전달받은 컨텍스트 벡터를 바탕으로 출력 시퀀스를 생성하며, 한 번에 하나씩 단어를 예측하여 최종 결과 도출함 1.2. 어텐션 매커니즘(Atten.. 생성형 AI 및 LLM 관련 Reading List LLM (Large Language Model) Reading ListNLP's ImageNet moment has arrived (NLP ImageNet 시대의 도래) : https://thegradient.pub/nlp-imagenet/Google Cloud supercharges NLP with large language models (Google Cloud 대규모 언어모델로 NLP강화) : https://cloud.google.com/blog/products/ai-machine-learning/google-cloud-supercharges-nlp-with-large-language-models LaMDA: our breakthrough conversation technology (LaMDA : G.. 이전 1 다음