image.png

순환 신경망 (Recurrent Neural Networks, RNN)

개념 및 목적 순환 신경망(RNN)은 순차적인 입력 데이터를 처리하기 위해 설계된 딥러닝 모델입니다. 자연어와 같이 시간적 또는 순서적 의존성을 갖는 데이터를 다루는 데 주로 사용됩니다. 예를 들어, 기계 번역이나 텍스트 요약과 같은 작업에 활용됩니다.

주요 특징 및 작동 방식 RNN은 입력 시퀀스의 각 요소를 순차적으로 처리합니다. 각 단계에서 모델은 이전 단계의 은닉 상태(hidden state)를 사용하여 현재 입력을 처리하고 새로운 은닉 상태를 생성합니다. 이 은닉 상태는 이전까지의 모든 정보를 요약하여 담고 있으며, 마지막 은닉 상태는 전체 시퀀스의 "문장 벡터" 또는 "사고 벡터"로 볼 수 있습니다.

한계


합성곱 신경망 (Convolutional Neural Networks, CNN)

개념 및 목적 합성곱 신경망(CNN)은 주로 컴퓨터 비전 분야에서 이미지 인식, 객체 탐지, 이미지 분류 등 시각 데이터를 처리하는 데 혁명적인 영향을 미친 딥러닝 모델입니다. 인간의 시신경 구조를 모방하여 개발되었습니다.

주요 특징 및 작동 방식 CNN의 핵심은 이미지의 공간 정보를 유지한 채 학습한다는 것입니다. 이는 이미지를 1차원 배열로 평면화하는 대신, 필터(filter) 또는 **커널(kernel)**이라는 작은 행렬을 사용하여 이미지의 특징을 추출하는 합성곱(convolution) 연산을 수행함으로써 가능합니다. 이 필터들은 특정 패턴(예: 가장자리, 질감)을 학습하며, 학습 과정에서 자동으로 최적화됩니다.

주요 구성 요소


어텐션 메커니즘 (Attention Mechanism) 및 트랜스포머 (Transformer)

어텐션 메커니즘의 도입 및 중요성 **어텐션(Attention)**은 딥러닝 모델이 입력 데이터의 여러 부분 중 가장 관련성이 높은 부분에 선택적으로 집중할 수 있도록 하는 메커니즘입니다. 2017년 Google Brain 팀이 발표한 "Attention Is All You Need" 논문에서 트랜스포머 모델과 함께 소개되었으며, 기존 RNN이나 CNN 모델의 한계를 극복하며 자연어 처리(NLP) 및 다양한 AI 분야에 혁명을 가져왔습니다.

어텐션의 핵심 아이디어 어텐션 함수는 **쿼리(Query)**와 키(Key)-값(Value) 쌍의 집합을 입력받아 출력을 생성합니다. 이 출력은 값(Value)들의 가중 합으로 계산되며, 각 값에 부여되는 가중치는 해당 값의 키(Key)와 쿼리(Query) 간의 **유사도(compatibility)**에 따라 결정됩니다. 이를 통해 모델은 입력 시퀀스 전체에 걸쳐 있는 컨텍스트를 효과적으로 이해하고 처리할 수 있습니다.

트랜스포머와 어텐션의 결합 트랜스포머는 RNN이나 CNN 없이 오직 어텐션 메커니즘만으로 구축된 모델입니다. 이로 인해 높은 병렬 처리 능력을 갖게 되어 훈련 시간을 크게 단축할 수 있습니다.