반응형
준비하기옵시디언에서 DeepSeek R1을 사용하려면 Copilot 플러그인와 Groq API가 필요합니다.Copilot 플러그인 설치 → 설치하러 가기Groq API 키 발급 → 키 발급 받으러 가기 설정하기Copilot 플러그인 설정에서 Custom Model을 추가합니다.Model Name: deepseek-r1-distill-llama-70bProvider: OpenAI FormatBase URL: https://api.groq.com/openai/v1API Key: Groq API Key 사용하기"Copilot: Open Copilot Chat Window" 명령어를 실행하여 Copilot 채팅을 엽니다. 참고사항테스트 결과, deepseek-r1-distill-llama-70b 모델의 추론 성..
저는 그동안 AI 요약 생성과 태그 생성에 아래 2개 플러그인을 활용하고 있었습니다. AI Summarize AI Tagger최근 더 좋은 LLM 모델이 계속 공개되고 있지만, 이러한 AI 플러그인의 업데이트 속도는 그만큼 따라가지 못하고 있습니다. 직접 깃허브 리포지토리에서 코드를 수정하여 모델 추가를 요청했지만, 반영 속도가 만족스럽지 않았습니다. 그래서 최근에는 위 두 플러그인을 삭제하고, Templator 플러그인의 템플릿 기능을 활용하여 기능을 비슷하게 만들었습니다. 결과가 만족스러워 공유합니다.이 방식을 사용하면 플러그인 개발자가 새로운 모델을 추가해줄 때까지 기다릴 필요 없이 쉽게 변경 가능하고,프롬프트도 쉽게 변경 가능하다는 장점이 있습니다. Google Gemini API를 사용했으며,..
옵시디언 웹 클리퍼를 활용하여 예스24 도서 정보를 손쉽게 저장하고 관리하는 방법을 소개합니다. 이 템플릿을 사용하면, 예스24에서 관심 있는 도서를 발견했을 때 제목, 저자, 출판일, 줄거리 등 핵심 정보를 간편하게 옵시디언 노트에 저장할 수 있습니다. 1단계: 템플릿 다운로드아래 파일을 다운로드 해주세요. 2단계: 옵시디언 웹 클리퍼 설정 페이지 이동크롬 확장 프로그램인 Obsidian Web Clipper의 설정 페이지로 이동합니다.확장 프로그램 목록에서 옵시디언 웹 클리퍼를 찾아 설정 버튼을 클릭해 주세요. 3단계: 템플릿 가져오기설정 페이지에서 "템플릿"을 선택한 후, "들여오기" 버튼을 클릭합니다.다운로드한 예스24-템플릿-clipper.json 파일을 선택하여 템플릿을 추..
Claude 데스크탑에서 옵시디언 노트를 활용할 수 있도록, 옵시디언 Omnisearch 플러그인과 연동 가능한 MCP 서버를 직접 개발했습니다. 이 글에서는 개발 과정을 기록하여 공유하고자 합니다. 기존 옵시디언 노트를 검색할 수 있는 공개 MCP 서버가 몇 가지 존재하지만, 파일명 기반 검색에 한정되거나 설정 과정이 복잡하여 실사용에 한계가 있었습니다. 이러한 문제를 해결하기 위해, Omnisearch 플러그인의 강력한 검색 API를 활용하여 정교한 검색이 가능한 MCP 서버를 구축하게 되었습니다. 참고할 만한 기존 MCP 서버calclavia/mcp-obsidian : Claude Desktop에서 마크다운 노트를 포함한 디렉토리(Obsidian 볼트)를 읽고 검색할 수 있도록 지원하는 MCP 서..
현재 옵시디언 노트를 위한 시맨틱 검색 플러그인을 개발하고 있습니다. 제가 검색 옵시디언 플러그인을 개발하기 시작한 이유는 바로 옵시디언의 기본 검색 기능과 Omnisearch 플러그인의 검색에 한계를 느꼈기 때문입니다. 사실, 제가 노트 정리를 잘 못하는 것도 노트 검색이 어려운 주요 원인 중 하나입니다. 기본 검색은 단순 키워드 매칭에 의존해, 사용자가 찾고자 하는 문서와 연관성이 높은 결과를 제공하는 데 한계가 있습니다. 이를 극복하기 위해 하이브리드 검색을 도입함으로써 검색 품질을 높이고, 사용자가 더 풍부한 정보를 쉽게 찾을 수 있는 환경을 제공하고자 합니다. 개발자로서 우리는 항상 성능과 사용자 경험을 최적화하려는 도전에 직면합니다. 하이브리드 검색 기능 구현하기플러그인에 하이브리드 검색 기..
현재 옵시디언 노트를 위한 시맨틱 검색 플러그인을 개발하고 있습니다. 제가 검색에서 가장 중요하게 고려한 부분은 벡터DB와 임베딩 모델의 선택이었습니다.최종적으로 파인콘DB와 OpenAI의 text-embedding-3-small 모델을 채택했습니다. 파인콘DB를 선택한 이유는 무료 플랜 때문입니다. 최대 2GB 스토리지와 5개의 인덱스, 인덱스당 100개의 네임스페이스를 무료로 제공하기 때문에 개인 용도로 사용하기에는 충분하다고 생각됩니다.그리고 OpenAI 모델은 다국어 임베딩 성능과 가성비 측면에서 최적의 선택이었습니다. 프레임워크 선택UI의 복잡도가 점점 증가함에 따라 옵시디언에 제공하는 기본 메서드인 createEl() 로는 UI 개발에 한계가 있었습니다. 그래서 이번에 UI 프레임워크 후보로 ..
내 블로그 - 관리자 홈 전환 |
Q
Q
|
---|---|
새 글 쓰기 |
W
W
|
글 수정 (권한 있는 경우) |
E
E
|
---|---|
댓글 영역으로 이동 |
C
C
|
이 페이지의 URL 복사 |
S
S
|
---|---|
맨 위로 이동 |
T
T
|
티스토리 홈 이동 |
H
H
|
단축키 안내 |
Shift + /
⇧ + /
|
* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.