반응형 분류 전체보기321 [딥러닝 with Python] Adversarial Robustness: 적대적 공격도 견뎌내는 AI 딥러닝 모델은 놀라운 정확도를 보이지만, 한편으로는 작은 입력 교란(perturbation) 만으로도 완전히 잘못된 출력을 내기도 합니다.이런 현상은 “적대적 공격(Adversarial Attack)”이라 불리며, 이를 견디는 능력을 Adversarial Robustness 라고 합니다. 1. 적대적 공격이란? 적대적 공격(adversarial attack)은 모델이 잘못된 예측을 하도록 입력에 아주 미세한 변화를 주는 기법입니다. 예를 들어 고양이 사진에 눈에 안 보일 정도의 노이즈를 추가했는데 모델이 “개(dog)”라고 예측해버린다면 그 모델은 robust하지 않은 모델입니다. 수식으로는 이렇게 표현됩니다:즉, 입력 x에 작은 변화 δ만 줘도 모델의 출력이 완전히 달라지는 경우죠. 2. 왜 이런 일.. 2025. 10. 12. [딥러닝 with Python] Robustness vs Generalization AI 모델을 평가할 때 자주 등장하는 두 단어는 Generalization(일반화) 과 Robustness(강건성) 입니다. 둘 다 “모델이 잘 작동한다”는 뜻이지만, 적용되는 상황과 초점이 다릅니다. 1. Generalization : 보지 못한 데이터에도 잘 작동하는 능력“훈련 데이터와 유사한 새로운 데이터에서도 높은 성능을 내는가?” 예를 들어, 고양이 사진 10,000장으로 학습한 모델이 처음 보는 고양이 사진에도 정확히 ‘고양이’라고 예측한다면이 모델은 일반화가 잘 된 모델입니다. 즉, 학습 분포(training distribution)와 테스트 분포(test distribution)가 유사할 때의 성능 유지력을 뜻합니다. 2. Robustness — 예기치 않은 변형에도 흔들리지 않는 능력.. 2025. 10. 12. [딥러닝 with Python] 인공지능에서 강건성(Robustness)란? 인공지능에서 강건성(Robustness) 이란, 모델이 노이즈, 오류, 예기치 않은 입력 변화에도 안정적으로 작동하는 능력을 말합니다.즉, 학습 데이터와 약간 다른 상황에서도 성능이 급격히 떨어지지 않는 “튼튼한 모델”을 의미하죠. 1. 왜 강건성이 중요한가?현실 세계의 데이터는 항상 완벽하지 않습니다.센서 노이즈, 조명 변화, 기기 오차문장 오타, 악의적 공격(adversarial attack)훈련 데이터 분포와 다른 테스트 환경이런 상황에서도 모델이 정확하고 일관된 판단을 유지해야 실제 서비스나 산업 환경에서 믿고 쓸 수 있습니다. 2. 수식으로 본 강건성의 개념모델이 입력 x 에 대해 예측 f(x) 를 할 때, 작은 섭동(perturbation) δ 에 대해서도 결과가 크게 변하지 않아야 합니다.여.. 2025. 10. 12. [딥러닝 with Python] Causal Attention with Lookahead keys(CASTLE) 1. 기본 개념: Causal Attention Transformer의 Causal (또는 Masked) Attention은 입력 시퀀스의 각 시점이 미래 정보(앞 시점) 를 보지 못하도록 막는 구조입니다. 즉, t번째 토큰은 t 시점 이전까지만 보고 예측해야 합니다. Causal Attention은 Query(Q)와 Key(K)의 내적에 마스크를 더해, 미래 위치의 값이 softmax 계산에 포함되지 않도록 합니다. 여기서 핵심 포인트는 “현재 시점은 과거까지만 볼 수 있다.”는 것입니다. 즉, 미래 정보는 차단 (no peeking into the future) 된다는 것이죠. 2. Lookahead Keys의 등장 배경순수 causal attention은 안정적이지만, 근접 미래(lookahea.. 2025. 10. 12. 이전 1 2 3 4 ··· 81 다음 반응형