반응형 분류 전체보기213 구글의 노트북 LM(Notebook LM): 코드 자동완성부터 데이터 분석까지 가능한 만능 AI 비서 1. Notebook LM이란?- Notebook LM은 구글이 발표한 AI 기반 노트북 비서 시스템으로, 사용자가 올린 문서(논문, 노트, 보고서 등)를 기반으로 질문 응답, 요약, 아이디어 브레인스토밍 등을 수행할 수 있는 LLM 기반 툴을 말합니다. - 주로 Google Docs, PDF, 논문 등의 텍스트 문서를 콘텍스트로 삼아 답변하는 비서형 LLM입니다 - 주요 특징은 아래와 같습니다.1) 문서 기반 질의응답 : 사용자가 업로드한 문서를 기반으로 AI가 그 내용에 맞는 답을 제공2) 멀티 문서 지원 : 여러개의 문서를 연결해 한꺼번에 질문 가능3) 요약 및 개요 생성: 긴문서를 요약하거나 핵심 포인트를 정리4) AI 메모 기능: Notebook LM이 문서의 내용을 바탕으로 요약, 정리, 질문.. 2025. 6. 17. [딥러닝 with Python] 인과 관계(Causality)에서 Acyclic 구조를 가정하는 이유 ( 순환 없는 모델이 중요한 이유) 요즘, AI 모델을 구성간 Causality에 대한 연구에 흥미를 느끼고 있습니다. 특히, Causal Inference(인과적 추론)을 하는 모델에서 비순환 방향 그래프(DAG / Directed Acyclic Graph)를 가정하는 이유에 대해서 많은 궁금증이 생기게 되었는데요 이번 포스팅에서는 인과적 방향성, 해석 가능성, 수학적 안정성, 알고리즘 효율성이라는 측면에서 Acyclic 구조의 필요성에 대해새 알아보도록 하겠습니다. 1. 인과 모델에서 비순환(Acyclic) 구조란?- Causal Inference(인과적 추론)에서 비순환 방향 그래프(DAG)는 원인과 결과를 한 방향으로 연결합니다.- 다시 말해 A -> B -> C 는 가능하지만, C -> A는 허용되지 않습니다. 이러한 Acycli.. 2025. 6. 16. [딥러닝 with Python] SHAP란? (SHapley Additive exPlanations) 1. SHAP란? - SHAP는 SHapley Addtivie exPlanations의 줄임말로, 머신러닝 모델의 예측 결과를 개별 feature의 기여도(additive contribution)으로 나누어 설명하는 설명가능한 AI(XAI) 기법 중 하나입니다. - SHAP는 게임 이론의 Shapley value를 기반으로 하며, 복잡한 모델이 특정한 예측값을 내린 이유를 수학적으로 공정하게 설명하는 방법입니다. -SHAP의 목적은 다음 질문에 대답하기 위한 것입니다."이 모델은 왜 이 샘플에 대해 이런 예측을 하였는가?"어떤 feature가 예측을 높였고, 어떤 feature가 낮췄는가?""이 예측값은 기본값에서 얼마나 벗어났고, 어떤 요인으로 그렇게 되었지?" -SHAP의 핵심 아이디어는 * 예측 모.. 2025. 6. 12. [딥러닝 with Python] XAI란? (eXplainable AI / 설명가능한 인공지능) Explainable AI(XAI)는 복잡한 인공지능 모델의 의사결정 과정을 사람이 이해할 수 있도록 설명해주는 기술입니다. 이 포스팅에서는 XAI의 필요성부터 접근 방식, 최신 트렌드까지 전체 맥락을 정리해보고자 합니다. 1. 왜 Explainable AI가 필요한가?- AI에 대한 신뢰의 위기 * AI가 내리는 결정의 이유를 알 수 없다면 그 모델을 실무에 적용하기는 어렵습니다. * 특히 의료, 금용, 법률 등 고위험 분야에서는 설명가능성의 부재(absence of explanation)는 규제와 신뢰의 가장 큰 장벽이 됩니다. * 대표적인 신뢰 문제의 예시는 아래와 같습니다. 의료 진단 - 왜 다음과 같은 증상이 진단되었는지 이유를 알기 어려움 COMPAS 사례 - 2016년 미 법원 재범.. 2025. 6. 11. 이전 1 2 3 4 ··· 54 다음 반응형