본문 바로가기
반응형

전체 글321

[딥러닝 with Python] Adversarial Robustness: 적대적 공격도 견뎌내는 AI 딥러닝 모델은 놀라운 정확도를 보이지만, 한편으로는 작은 입력 교란(perturbation) 만으로도 완전히 잘못된 출력을 내기도 합니다.이런 현상은 “적대적 공격(Adversarial Attack)”이라 불리며, 이를 견디는 능력을 Adversarial Robustness 라고 합니다. 1. 적대적 공격이란? 적대적 공격(adversarial attack)은 모델이 잘못된 예측을 하도록 입력에 아주 미세한 변화를 주는 기법입니다. 예를 들어 고양이 사진에 눈에 안 보일 정도의 노이즈를 추가했는데 모델이 “개(dog)”라고 예측해버린다면 그 모델은 robust하지 않은 모델입니다. 수식으로는 이렇게 표현됩니다:즉, 입력 x에 작은 변화 δ만 줘도 모델의 출력이 완전히 달라지는 경우죠. 2. 왜 이런 일.. 2025. 10. 12.
[딥러닝 with Python] Robustness vs Generalization AI 모델을 평가할 때 자주 등장하는 두 단어는 Generalization(일반화) 과 Robustness(강건성) 입니다. 둘 다 “모델이 잘 작동한다”는 뜻이지만, 적용되는 상황과 초점이 다릅니다. 1. Generalization : 보지 못한 데이터에도 잘 작동하는 능력“훈련 데이터와 유사한 새로운 데이터에서도 높은 성능을 내는가?” 예를 들어, 고양이 사진 10,000장으로 학습한 모델이 처음 보는 고양이 사진에도 정확히 ‘고양이’라고 예측한다면이 모델은 일반화가 잘 된 모델입니다. 즉, 학습 분포(training distribution)와 테스트 분포(test distribution)가 유사할 때의 성능 유지력을 뜻합니다. 2. Robustness — 예기치 않은 변형에도 흔들리지 않는 능력.. 2025. 10. 12.
[딥러닝 with Python] 인공지능에서 강건성(Robustness)란? 인공지능에서 강건성(Robustness) 이란, 모델이 노이즈, 오류, 예기치 않은 입력 변화에도 안정적으로 작동하는 능력을 말합니다.즉, 학습 데이터와 약간 다른 상황에서도 성능이 급격히 떨어지지 않는 “튼튼한 모델”을 의미하죠. 1. 왜 강건성이 중요한가?현실 세계의 데이터는 항상 완벽하지 않습니다.센서 노이즈, 조명 변화, 기기 오차문장 오타, 악의적 공격(adversarial attack)훈련 데이터 분포와 다른 테스트 환경이런 상황에서도 모델이 정확하고 일관된 판단을 유지해야 실제 서비스나 산업 환경에서 믿고 쓸 수 있습니다. 2. 수식으로 본 강건성의 개념모델이 입력 x 에 대해 예측 f(x) 를 할 때, 작은 섭동(perturbation) δ 에 대해서도 결과가 크게 변하지 않아야 합니다.여.. 2025. 10. 12.
[딥러닝 with Python] Causal Attention with Lookahead keys(CASTLE) 1. 기본 개념: Causal Attention Transformer의 Causal (또는 Masked) Attention은 입력 시퀀스의 각 시점이 미래 정보(앞 시점) 를 보지 못하도록 막는 구조입니다. 즉, t번째 토큰은 t 시점 이전까지만 보고 예측해야 합니다. Causal Attention은 Query(Q)와 Key(K)의 내적에 마스크를 더해, 미래 위치의 값이 softmax 계산에 포함되지 않도록 합니다. 여기서 핵심 포인트는 “현재 시점은 과거까지만 볼 수 있다.”는 것입니다. 즉, 미래 정보는 차단 (no peeking into the future) 된다는 것이죠. 2. Lookahead Keys의 등장 배경순수 causal attention은 안정적이지만, 근접 미래(lookahea.. 2025. 10. 12.
[딥러닝 with Python] Eligibility trace 1. Eligibility Trace란?- Eligibility trace는 과거의 행동이 얼마나 ‘책임’이 있는지를 기억하는 강화학습의 핵심 메커니즘입니다- 즉, 시간에 따라 감쇠되는 흔적을 각 상태–행동 쌍마다 유지해, TD-error를 과거로 분배하도록 돕는 강화학습 기법입니다. 2. 기본 직관TD(1-step)만 쓰면 “바로 직전”의 선택에만 학습이 집중됩니다. 하지만 실제 보상은 몇 스텝 뒤에 나타나는 경우가 많죠.그래서 최근일수록 크게, 오래됐을수록 작게 반영하도록 흔적을 남깁니다. 3. Trace 정의(Backward view)각 상태–행동 (s,a)에 대해 시간 t의 trace는γ∈[0,1): 할인율λ∈[0,1]: trace 감쇠 계수1{⋅}: 현재 (s,a)(s,a)(s,a)를 방문했으면.. 2025. 10. 12.
[딥러닝 with Python] Model-Free Control(모델-프리 제어) (2/2) 1. MC vs TD 제어의 차이항목MCTD업데이트 시점에피소드 종료 후매 스텝마다데이터 필요량많음 (완전한 episode 필요)적음 (부분 시퀀스 OK)분산높음낮음적용성OfflineOnline 그래서 실제 제어(Control)에서는 대부분 TD 계열, 특히 Sarsa나 Q-Learning을 많이 사용합니다. 2. Sarsa 알고리즘 (On-Policy TD Control)Sarsa는 다음 5가지 요소로 구성됩니다.(이름 SARSA = State, Action, Reward, next State, next Action)Policy Evaluation: TD 업데이트로 Q(s,a) 근사Policy Improvement: ε-Greedy로 새로운 행동 선택즉, “현재 정책으로 행동하고, 그 정책으로 학습”하.. 2025. 10. 12.
[딥러닝 with Python] Model-Free Control(모델-프리 제어) (1/2) 1. Model Free Control이란? 모델-프리 제어(Model-Free Control)는 환경의 전이확률이나 보상함수 같은 MDP의 모델을 모른 채, 경험(Sample) 만으로 최적 정책(Optimal Policy) 을 학습하는 강화학습 방법이에요. “Model-Free Prediction”은 주어진 정책의 가치(Value) 를 추정하는 것이었다면, 이번 내용은 그 정책을 최적화(Optimization) 하는 것이 핵심이에요. 2. 모델-프리 제어가 필요한 이유 실제 세상은 수식으로 표현하기 어려운 환경이 대부분이에요. 아래와 같은 문제들을 생각해볼까요?🚗 평행 주차 (Parallel Parking)🚁 헬리콥터 제어 (Helicopter Control)⚽ 로보컵 축구 (RoboCup So.. 2025. 10. 12.
[개념 정리] 렌더링(Rendering)이란? 1. 렌더링(Rendering)컴퓨터가 내부적으로 계산한 데이터를 사람이 볼 수 있는 형태(이미지, 영상, 소리 등)로 변환하는 과정을 말합니다. 렌더링(Rendering) 이란- 컴퓨터가 내부적으로 계산한 데이터를 사람이 볼 수 있는 형태(이미지, 영상, 소리 등)로 변환하는 과정을 말합니다.즉, "보이지 않는 계산 결과를 눈으로 볼 수 있게 만드는 것" 이 렌더링의 핵심입니다. 예시로 보면:게임: 3D 모델 → 화면 속 실제 캐릭터웹사이트: HTML/CSS 코드 → 눈에 보이는 웹페이지인공지능: latent vector(잠재공간) → 실제 이미지 2. 그래픽스에서의 랜더링 - 3D 공간에 존재하는 객체(Object), 조명(Light), 카메라(Camera) 정보를 기반으로 현실과 유사한 2D 이미지.. 2025. 10. 12.
반응형