LLM이란 : 대규모 텍스트 데이터를 학습하여 언어의 패턴, 문맥, 의미를 이해하고 이를 바탕으로 텍스트를 생성하거나 질문에 답변할 수 있는 모델. 번역, 요약, 문법 교정, 텍스트 생성 등 다양한 작업을 처리 가능 LLM의 구조와 작동 원리 : LLM의 작동 원리는 주로 Transformer 아키텍처에 기반Transformer : Attention is All You Need"에서 소개된 딥러닝 모델 구조 [ Transformer의 핵심 구성 요소 ] 입력 임베딩(Input Embedding): 텍스트 데이터를 숫자 벡터로 변환. 각 단어를 고유한 벡터로 표현하여 모델이 처리할 수 있도록 만듬. Self-Attention 메커니즘 : 입력된 단어들 간의 관계를 계산하여 문맥을 이해. 포지셔널 인코딩(P..