반응형
옵시디언 노트 앱을 사용하면서 Google Tasks를 효과적으로 관리하고 싶으신가요? 옵시디언 Google Tasks 플러그인을 사용하면 옵시디언 내에서 직접 할 일 목록을 관리할 수 있어 생산성을 높일 수 있습니다. 이 글에서는 플러그인 설치부터 사용 방법까지 상세히 안내해드립니다. 🌐 홈페이지: https://github.com/YukiGasai/obsidian-google-tasks 📥 설치링크: https://obsidian.md/plugins?id=obsidian-google-tasks 옵시디언 Google Tasks 플러그인의 주요 기능: 태스크 목록 조회 새 태스크 생성 태스크 편집(새 태스크을 생성하고 이전 태스크을 삭제) 태스크 완료/할 일로 표시 완료된 태스크 삭제 Google Tas..
CodeQwen 오픈소스 AI모델과 VSCode Continue 익스텐션을 개발에 활용하는 방법에 대한 새 글을 업로드했습니다."- 2024. 5. 25. - VSCode Github Copilot을 대체할 수 있는 무료 로컬 LLM 및 Groq Llama 70bEvalPlus LeaderboardEvalPlus는 AI 코더를 평가하는 엄격한 테스트를 통해 벤치마크를 제공합니다. 순위표를 살펴보면 GPT-4 다음으로 CodeQwen1.5-7B-Chat 모델의 점수가 가장 높습니다. 그리고 CodeQwen1.5-7B-Chatanpigon.tistory.com Ollma는 무료로 사용할 수 있는 로컬 AI 도구로, 이전 글 "로컬에서 무료로 사용할 수 있는 LLM 도구, Ollama 활용 가이드"에서..
Logseq 사용자들을 위한 강력하고 무료인 AI 도구, Ollama와 Logseq-Ollama 플러그인 대해 자세히 알아보겠습니다. Ollama는 로컬 환경에서의 AI 작업을 간소화하고 효율성을 극대화하는 도구입니다. 이 가이드를 통해 Ollama의 설치부터 사용 방법까지 쉽게 이해할 수 있도록 도와드리겠습니다. Logseq Ollama 플러그인 설치 및 기본 설정 Logseq에서 Ollama를 사용하기 위해 첫 번째 단계는 플러그인의 설치입니다. Logseq 마켓플레이스에서 'ollama-logseq’를 검색하여 설치할 수 있습니다. 설치 후, ‘ollama-logseq’ 플러그인 설정에 들어가 LLM Model을 mistral:latest로 변경합니다. 올라마 AI 모델 설정 및 사용 Ollama는..
옵시디언에서 AI를 효과적으로 사용하는 방법을 찾고 계신가요? 이전 글 ‘올라마(Ollama)와 옵시디언(옵시디언 노트앱)을 효과적으로 활용하는 방법’ 에서는 올라마(Ollama)를 중심으로 설명했습니다. 하지만, 올라마(Ollama)는 윈도우를 지원하지 않아서 윈도우 사용자에게는 아쉬운 점이 있었습니다. 이번에는 윈도우, 맥OS, 리눅스를 모두 지원하는 LM Studio를 소개하려 합니다LM Studio 설치 및 AI 모델 다운로드먼저, LM Studio 홈페이지(https://lmstudio.ai/)를 방문하여 LLM Studio 프로그램을 다운로드하여 설치합니다. 그런 다음, 왼쪽 사이드 메뉴의 🔎 아이콘을 클릭하여 'mistral’이라는 키워드로 AI 모델을 검색하고, 가장 인기 있는 모델을 선택..
이전 글에서는 올라마(Ollama)에 대한 기본적인 소개를 하였습니다(참고: 로컬에서 무료로 사용할 수 있는 LLM 도구, Ollama 활용 가이드). 이번 글에서는 올라마(Ollama)를 옵시디언 노트앱에서 어떻게 활용할 수 있는지 상세히 안내하고자 합니다. 올라마와 윈도우OS 호환성 문제올라마는 아직 윈도우OS를 지원하지 않습니다. 하지만 WSL2 또는 Docker를 이용하면 윈도우 환경에서도 올라마를 실행할 수 있습니다. 대안으로는, 윈도우를 지원하는 프로그램인 LM Studio를 사용하는 것도 좋은 선택입니다. 옵시디언에서 LM Studio를 사용하는 방법에 대해서는 [여기]에 자세히 설명되어 있습니다.올라마 AI모델 설치 및 실행올라마의 설치 및 모델 다운로드는 매우 간단합니다. 먼저 ollam..