- 러닝의 기본 개념 이해
- 대표적인 딥러닝 아키텍처 학습
- 딥러닝 적용 분야 파악
- 최신 AI 트렌드 이해
- 강화학습 개념 이해
대규모 데이터를 통해 다층 신경망, CNN, RNN, Transformers 등 다양한 구조를 활용하여 복잡한 패턴을 학습하고, 이미지 / 자연어 / 생성형 AI 등 폭넓은 영역에서 강력한 성능을 발휘하는 기술
딥러닝(Deep Leanring)


인공신경망의 기본은 퍼셉트론(Perceptron)
: 퍼셉트론의 단층 구조 -> 다층 퍼셉트론(MLP) -> 딥러닝(Deep Neural Network)
여러 층으로 구성 -> 딥(Deep)
: 입력 계층(input layer)과 출력 계층(Output layer) 사이에 여러 개의 은닉층(Hidden layer)을 두어 복잡한 패턴까지 학습
(* 은닉층이 많으면 많을수록 Deep하다.)
: 데이터와 컴퓨팅 파워, 알고리즘 발전으로 딥러닝이 급성장
딥러닝의 핵심 아이디어
✔️ 계층적 특징 학습
: 사람 얼굴 인식을 예로, 초기 은닉층에서는 '선', '모서리', '곡선' 을 잡아내고, 더 깊은 층에서는 '눈', '코', '입' 등 구체적 특징을 학습하여 마지막에는 얼굴 전체를 인식
✔️ 비선형 변환을 반복 작용
: 많은 은닉층이 비선형 활성화 함수를 통해 데이터를 변환하면서 복잡한 패턴을 학습

✔️ 오차역전파(Backpropagation)
: 예측과 실제 값의 차이를 신경망 거꾸로 전달하며 가중치를 업데이트

🤖 딥러닝 적용 절차(머신러닝과 동일)
: 데이터 수집 -> 데이터 전처리(결측치, 정규화 등) -> 모델 설계 -> 모델 학습(훈련) -> 검증(Validation) 및 성능평가 -> 최종 모델 활용
주요 딥러닝 아키텍처
CNN(Convolutional Neural Network)

- 주로 이미지, 영상에 특화된 구조
- 합성곱(convolution) 연산을 통해 픽셀 영역의 지역적 특성을 추출
작동원리
- 합성곱 레이어 : 필터(또는 커널)을 이용해 이미지(특징 맵)을 스캔하며 특징을 추출
- 풀링(pooling) 레이어 : 특징 맵의 크기를 줄이고 주요 특징만 요약
- 완전연결(FC, Fully Connected) 레이어 : 추출된 특징 기반으로 분류나 회귀 수행 (기본적인 신경망 형태)
활용 예시
- 자율주행 차량에서 도로 표지판 인식, 차선 탐지, 물체 인식
- 의료 영상 분석(CT, MRI 등)에서 질병 부위 정확 탐지
이미지를 볼 때 큰 그림을 보는 것이 아니라 일정 크기의 창으로 이미지를 훑으며(스캔) 특징을 찾는 방식
RNN(Recurrent Neural Network)

- 순차적(시퀀스) 데이터 처리에 특화된 신경망 구조
- 문장(텍스트), 음성 신호, 주가 등 시간 순서가 있는 데이터를 다룸
작동원리
- 이전 단계(시점)의 은닉 상태(정보)를 다음 단계로 넘겨주며 연쇄적으로 학습
- 순환 구조로 인해 과거 정보를 기반으로 현재 출력에 영향을 줌
: 기억력이 있다고 표현하기도 함
문제점과 개선
: 장기 메모리 문제가 발생(기울기 소실, 폭주 문제)
-> LSTM(Long Short-Term Memory), GRU(Gated Recurrent Unit)으로 개선
우리 뇌가 문장을 읽을 때 앞 단어(이전 맥락)를 기억하며 현재 단어를 이해하듯,
RNN은 이전 정보를 순환하며 학습한다.
Transformers
chat GPT 에서의 T!!


- 2017년 구글 논문 (Attention is all you need)에서 제시된 모델
- 어텐션(attention) 메커니즘 활용, 입력 전체에서 중요한 부분에 집중
- RNN 없이도 순차 데이터 처리가 가능 -> 병렬 연산이 가능, 학습속도 대폭 향상
작동원리
- 인코더와 디코더 구조로 분리
- 어텐션을 통해 단어 간 연관성을 효율적으로 학습
활용 예시
- BERT, GPT 시리즈 등 대형 언어모델
- 최신 NLP 작업 전반(번역, 요약, 질의응답, 텍스트 생성 등)에 활용
중요성
- 현재 많은 대형 모델들이 Transformers 기반
- 자연어 처리뿐 아니라 영상, 음성 등 멀티모달에도 응용 가능
사람에게 한 문단 전체를 빠르게 보여주고,
어떤 단어가 서로 얼마나 관련 있는지 파악해 의미 연결고리를 만드는 과정
딥러닝 주요 활용 사례
이미지 처리
- 의료영상 분석
- 자율주행 객체 탐지
자연어 처리(NLP)
- 감정 분석 : sns나 상품 리뷰(긍정/부정), 고객만족도 분석
- 음성 인식 : siri, alexa 등, 콜센터 자동응답 시스템, 음성-> 텍스트 변환
기계 번역, 요약
- 구글 번역, 파파고, 딥엘(DeepL) 등 고품질 번역 서비스
- 긴 텍스트를 핵심만 추려 요약하는 자동 요약 기술
생성형 AI
강화학습

- 에이전트가 환경과 상호작용하며, 행동에 따라 보상을 받아 학습
- 보상을 최대화 하는 방향으로 정책을 학습해 최적의 행동을 찾음
예시 : 알파고, 로봇 제어
응용 분야 : 게임AI플레이어, 추천 시스템, 자율주행, 산업 자동화 등
Hugging Face (다양한 딥러닝을 손쉽게 실습)


▼ 감정분석 코드 예시
from transformers import pipeline
# 1) 텍스트 분류 파이프라인 생성 (감정 분석용 사전학습 모델)
classifier = pipeline("sentiment-analysis")
# 2) 예시 문장 분석
texts = [
"I love this product! It's absolutely wonderful.",
"I'm really disappointed. It didn't work as expected."
]
results = classifier(texts)
print(results)

▼ 질의응답 코드 예시
from transformers import pipeline
# 1. "question-answering" 파이프라인을 생성
qa_pipe = pipeline(
"question-answering",
model="distilbert-base-uncased-distilled-squad"
)
# 2. 예시 지문(context)과 질문(question)
context = """
Hugging Face is a company that provides an open-source community and a platform of
transformer models. Their Transformers library allows easy usage of state-of-the-art
natural language processing models. They focus on facilitating accessibility and
collaboration in the AI field.
"""
question = "What does Hugging Face provide?"
# 3. 질의응답 수행
result = qa_pipe(question=question, context=context)
print(result)
# 예시 출력:
# {'score': 0.930..., 'start': 59, 'end': 122, 'answer': 'an open-source community and a platform of transformer models'}

▼ 문장생성 코드 예시
from transformers import pipeline
# 1) 텍스트 생성 파이프라인 (GPT-2 등 사전학습 모델 기반)
generator = pipeline("text-generation", model="gpt2")
# 2) 예시 프롬프트 (문장 시작)
prompt = "Once upon a time, in a land far away"
# 3) 문장 자동 완성
result = generator(prompt, max_length=50, num_return_sequences=1)
print(result)

▼ Q&A
📚 Q1: 딥러닝과 머신러닝은 어떻게 다른가요?
A1: 머신러닝은 사람의 개입으로 특징을 추출해 모델을 학습하는 전통적인 방법들을 포괄적으로 일컫습니다. 딥러닝은 신경망(특히 다층 구조)을 사용해 데이터를 스스로 표현(특징 추출)하며 학습하는 것이 핵심 차이점입니다.
📚 Q2: CNN과 RNN의 가장 큰 차이점은 무엇인가요?
A2: CNN은 주로 이미지나 영상 등 공간적(2D) 데이터를 처리하는 데 특화되어 있습니다. 반면 RNN은 순차적(시계열) 데이터를 효율적으로 다룰 수 있는 구조로, 텍스트나 음성처럼 시간이나 순서가 중요한 데이터에 적용됩니다.
📚 Q3: Transformers 모델이 RNN이나 CNN보다 어떤 면에서 장점이 있나요?
A3: Transformers는 어텐션(Attention) 기법을 사용해 문장의 모든 단어 간 관계를 한 번에 고려할 수 있고, RNN 없이도 병렬 처리가 가능합니다. 이로 인해 학습 속도와 성능이 크게 향상되어 대규모 데이터 학습에 용이합니다.
📚 Q4: 생성형 AI(ChatGPT, DALL-E 등)는 어떻게 사용하면 좋나요?
A4: 생성형 AI는 텍스트·이미지·음악 등 창의적인 작업을 빠르게 도와줄 수 있지만, 아직 사실 관계를 완벽히 보장하지 못하는 경우도 있어 결과물을 비판적으로 검토해야 합니다. 아이디어 발상, 초안 작성, 컨셉 아트 생성 등 빠른 프로토타이핑에 유용합니다.
📚 Q5: 강화학습은 어디에 많이 적용되나요?
A5: 대표적으로 알파고(바둑), 로봇 제어, 게임 AI 등에 활용됩니다. 에이전트가 환경에서 행동을 하고, 보상을 받는 과정을 반복하여 최적의 전략(정책)을 학습하는 방식으로, 자율주행이나 드론 제어 등에서도 연구가 활발히 진행되고 있습니다.
📚 Q6: 딥러닝을 처음 배울 때 참고할 만한 자료나 학습 방법이 있나요?
A6: Coursera(Andrew Ng의 강의), Cs231n, Fast.ai, 그리고 TensorFlow·PyTorch를 활용한 튜토리얼이 가장 많이 활용됩니다. Kaggle 대회에 참여해보며 실전 경험을 쌓는 것도 매우 추천합니다.
끝.
'머신러닝' 카테고리의 다른 글
| [ML] 머신러닝 9강 - 데이터에서 이상치를 제거하려면, 이상탐지 (0) | 2025.11.21 |
|---|---|
| [ML] 머신러닝 8강 - 데이터가 넘 복잡할 땐, 차원 축소 (0) | 2025.11.20 |
| [ML] 머신러닝 7강 - 그룹을 나누려면, 클러스터링 (0) | 2025.11.19 |