최근 AI 기술이 발전하면서 많은 사람들이 온라인 기반의 AI 서비스를 사용하고 있습니다. 하지만 이 과정에서 개인 정보나 민감한 데이터가 외부 서버로 전송되는 것에 대한 우려가 커지고 있습니다. 내 정보가 외부로 유출될 수 있다는 걱정 때문에, AI를 로컬 환경에서 직접 구동하여 자신의 PC에 저장된 파일을 안전하게 탐색하고 소통하려는 수요가 증가하고 있습니다.이 글에서는 로컬 PC에 있는 문서들을 빠르게 검색하고, 필요한 파일만 읽어 Q&A까지 이어가는 방법을 소개합니다. 준비물은 두 가지예요:Ollama(로컬 LLM 런타임) + 사용할 모델Odin(데스크톱 앱)아래 순서대로 진행하면 바로 쓸 수 있습니다.1) Ollama 설치 + 모델 받기다운로드: https://ollama.com/download..