본문 바로가기
반응형

전체 글213

구글의 노트북 LM(Notebook LM): 코드 자동완성부터 데이터 분석까지 가능한 만능 AI 비서 1. Notebook LM이란?- Notebook LM은 구글이 발표한 AI 기반 노트북 비서 시스템으로, 사용자가 올린 문서(논문, 노트, 보고서 등)를 기반으로 질문 응답, 요약, 아이디어 브레인스토밍 등을 수행할 수 있는 LLM 기반 툴을 말합니다. - 주로 Google Docs, PDF, 논문 등의 텍스트 문서를 콘텍스트로 삼아 답변하는 비서형 LLM입니다 - 주요 특징은 아래와 같습니다.1) 문서 기반 질의응답 : 사용자가 업로드한 문서를 기반으로 AI가 그 내용에 맞는 답을 제공2) 멀티 문서 지원 : 여러개의 문서를 연결해 한꺼번에 질문 가능3) 요약 및 개요 생성: 긴문서를 요약하거나 핵심 포인트를 정리4) AI 메모 기능: Notebook LM이 문서의 내용을 바탕으로 요약, 정리, 질문.. 2025. 6. 17.
[딥러닝 with Python] 인과 관계(Causality)에서 Acyclic 구조를 가정하는 이유 ( 순환 없는 모델이 중요한 이유) 요즘, AI 모델을 구성간 Causality에 대한 연구에 흥미를 느끼고 있습니다. 특히, Causal Inference(인과적 추론)을 하는 모델에서 비순환 방향 그래프(DAG / Directed Acyclic Graph)를 가정하는 이유에 대해서 많은 궁금증이 생기게 되었는데요 이번 포스팅에서는 인과적 방향성, 해석 가능성, 수학적 안정성, 알고리즘 효율성이라는 측면에서 Acyclic 구조의 필요성에 대해새 알아보도록 하겠습니다. 1. 인과 모델에서 비순환(Acyclic) 구조란?- Causal Inference(인과적 추론)에서 비순환 방향 그래프(DAG)는 원인과 결과를 한 방향으로 연결합니다.- 다시 말해 A -> B -> C 는 가능하지만, C -> A는 허용되지 않습니다. 이러한 Acycli.. 2025. 6. 16.
[딥러닝 with Python] SHAP란? (SHapley Additive exPlanations) 1. SHAP란? - SHAP는 SHapley Addtivie exPlanations의 줄임말로, 머신러닝 모델의 예측 결과를 개별 feature의 기여도(additive contribution)으로 나누어 설명하는 설명가능한 AI(XAI) 기법 중 하나입니다. - SHAP는 게임 이론의 Shapley value를 기반으로 하며, 복잡한 모델이 특정한 예측값을 내린 이유를 수학적으로 공정하게 설명하는 방법입니다. -SHAP의 목적은 다음 질문에 대답하기 위한 것입니다."이 모델은 왜 이 샘플에 대해 이런 예측을 하였는가?"어떤 feature가 예측을 높였고, 어떤 feature가 낮췄는가?""이 예측값은 기본값에서 얼마나 벗어났고, 어떤 요인으로 그렇게 되었지?" -SHAP의 핵심 아이디어는 * 예측 모.. 2025. 6. 12.
[딥러닝 with Python] XAI란? (eXplainable AI / 설명가능한 인공지능) Explainable AI(XAI)는 복잡한 인공지능 모델의 의사결정 과정을 사람이 이해할 수 있도록 설명해주는 기술입니다. 이 포스팅에서는 XAI의 필요성부터 접근 방식, 최신 트렌드까지 전체 맥락을 정리해보고자 합니다. 1. 왜 Explainable AI가 필요한가?- AI에 대한 신뢰의 위기 * AI가 내리는 결정의 이유를 알 수 없다면 그 모델을 실무에 적용하기는 어렵습니다. * 특히 의료, 금용, 법률 등 고위험 분야에서는 설명가능성의 부재(absence of explanation)는 규제와 신뢰의 가장 큰 장벽이 됩니다. * 대표적인 신뢰 문제의 예시는 아래와 같습니다. 의료 진단 - 왜 다음과 같은 증상이 진단되었는지 이유를 알기 어려움 COMPAS 사례 - 2016년 미 법원 재범.. 2025. 6. 11.
[딥러닝 with Python] 설명 가능한 시계열 이상탐지 방법론 정리 (Explainable Time Series Anomaly Detection Methods) 1. 왜 설명 가능한 시계열 이상 탐지가 필요할까?AI가 시계열에서 이상 지점을 탐지했다라고 했을때,왜 이 시점이 이상한가? 에 대한 질문에 답을 하지 못한다면 다음과 같은 문제들이 발생할 수 있습니다.- 의료: 심전도에서 이상을 잡았지만, 어떤 패턴이 문제인지를 설명하지 않으면 신뢰도가 떨어짐- 금융: 거래 데이터에서 이상패턴이 발견되어 거래가 차단되었는데, 그 이유를 설명하지 못하면 차단된 고객의 항의가 빗발치게 됨- 제조: 이상 경고는 떴지만, 어떤 센서의 어떤 변화가 문제였는지 알 수 없다면 대응이 늦어짐 이처럼 탐지만큼 중요한 것이 이에 대한 설명력이 되겠습니다. 그래서 최근 TSAD(Time Series Anomaly Detection / 시계열 이상 탐지) 연구들은 설명 가능한 이상 탐지(E.. 2025. 6. 10.
[딥러닝 with Python] 시계열 이상 탐지(Time Series Anomaly Detection / TSAD) 1. 시계열 이상 탐지(Time Series Anomaly Detection / TSAD) 란?시계열 이상 탐지는 시간에 따라 수집된 연속적인 데이터 내에서 정상 패턴에서 벗어난 이상(anomaly)를 탐지하는 문제입니다. 이때 이상(anomaly)는 주로 다음과 같은 이유로 탐지가 됩니다. - 장비 고장 예측 - 금융 시가 탐지 - 네트워크 침입 탐지 - 의료 이상 징후 감지 이를 수식으로 표현해보면 다음과 같습니다. 주어진 시계여 데이터 X 는 이때, 각 시점 t에서 이상 점수(anomaly score) 인 s_t를 추정하고, 임계값이 theta를 넘어가면 이상으로 판단하게 됩니다. 2. 대표적인 TSAD 방법론1) One-Class 기반- 정상 데이터 만으로 학습하여 정상 분포를 벗어난 데이터를.. 2025. 6. 9.
[딥러닝 with Python] 노트북에서도 가능한 AI! 로컬 언어 모델 Local LLM 1. 로컬 LLM이란로컬 LLM(Local Large Language Model)은 클라우드 서버가 아닌 개인 PC나 노트북에 직접 설치하여 실행할 수 있는 언어모델을 말합니다. Open AI의 ChatGPT, Google의 Gemini 등은 인터넷 접속이 필수이지만, 로컬 LLM은 네트워크 없이도 실행이 가능하여 개인정보 보호, 지연없는 응답, 비용 절감 등의 장점을 가지고 있습니다. 2. 로컬 LLM의 장점 로컬 LLM의 장점은 다음과 같이 5개 정도로 구분해볼 수 있습니다. 1) 프라이버시 보장: 서버로 데이터가 전송되지 않아 민감한 정보를 보호 가능2) 빠른 응답 속도: 인터넷 연결이 없으므로, 로컬 계산으로 반응 속도를 향상 시킬 수 있음3) 비용절감: API 요금 없이 완전 무료로 사용이.. 2025. 6. 8.
[딥러닝 with Python] LIME이란? (Local Interpretable Model-Agnostic Explanations) / Google Colab으로 LIME 구현해보기 1. LIME이란?- LIME은 Local Interpretable Model Agnostic Explanations의 줄임말로, 복잡한 인공지능 모델의 Black box문제를 해결하고 입력과 출력의 관계에 집중하여 모델의 결과에 대한 해석력을 제공하는 모델입니다. - 현대의 딥러닝, 앙상블 모델 등 높은 정확도를 얻기 위해서는 모델이 점차 더 복잡해지고 이러 인해 설명가능성이 부족해지고 있습니다. - 이러한 설명가능성의 부재는 모델에 대한 신뢰도 / 수용 가능성 등에 문제를 일으키게 되는데요.- 특히, 모델이 제시하는 결과물은 복잡한 행렬연산과 미분의 상호작용에 따른 결과물이기에 사람이 이해하기에는 어렵습니다. - 이로 인해 제안된 방법이 LIME 입니다. -LIME의 핵심 아이디어는 다음과 같습니.. 2025. 6. 7.
반응형