반응형
CodeQwen 오픈소스 AI모델과 VSCode Continue 익스텐션을 개발에 활용하는 방법에 대한 새 글을 업로드했습니다."- 2024. 5. 25. - VSCode Github Copilot을 대체할 수 있는 무료 로컬 LLM 및 Groq Llama 70bEvalPlus LeaderboardEvalPlus는 AI 코더를 평가하는 엄격한 테스트를 통해 벤치마크를 제공합니다. 순위표를 살펴보면 GPT-4 다음으로 CodeQwen1.5-7B-Chat 모델의 점수가 가장 높습니다. 그리고 CodeQwen1.5-7B-Chatanpigon.tistory.com Ollma는 무료로 사용할 수 있는 로컬 AI 도구로, 이전 글 "로컬에서 무료로 사용할 수 있는 LLM 도구, Ollama 활용 가이드"에서..
Logseq 사용자들을 위한 강력하고 무료인 AI 도구, Ollama와 Logseq-Ollama 플러그인 대해 자세히 알아보겠습니다. Ollama는 로컬 환경에서의 AI 작업을 간소화하고 효율성을 극대화하는 도구입니다. 이 가이드를 통해 Ollama의 설치부터 사용 방법까지 쉽게 이해할 수 있도록 도와드리겠습니다. Logseq Ollama 플러그인 설치 및 기본 설정 Logseq에서 Ollama를 사용하기 위해 첫 번째 단계는 플러그인의 설치입니다. Logseq 마켓플레이스에서 'ollama-logseq’를 검색하여 설치할 수 있습니다. 설치 후, ‘ollama-logseq’ 플러그인 설정에 들어가 LLM Model을 mistral:latest로 변경합니다. 올라마 AI 모델 설정 및 사용 Ollama는..
이전 글에서는 올라마(Ollama)에 대한 기본적인 소개를 하였습니다(참고: 로컬에서 무료로 사용할 수 있는 LLM 도구, Ollama 활용 가이드). 이번 글에서는 올라마(Ollama)를 옵시디언 노트앱에서 어떻게 활용할 수 있는지 상세히 안내하고자 합니다. 올라마와 윈도우OS 호환성 문제올라마는 아직 윈도우OS를 지원하지 않습니다. 하지만 WSL2 또는 Docker를 이용하면 윈도우 환경에서도 올라마를 실행할 수 있습니다. 대안으로는, 윈도우를 지원하는 프로그램인 LM Studio를 사용하는 것도 좋은 선택입니다. 옵시디언에서 LM Studio를 사용하는 방법에 대해서는 [여기]에 자세히 설명되어 있습니다.올라마 AI모델 설치 및 실행올라마의 설치 및 모델 다운로드는 매우 간단합니다. 먼저 ollam..
이번 가이드에서는 Ollama 웹 UI를 활용하는 방법에 대해 상세하게 안내해 드립니다. 이 글은 PC와 모바일에서 Ollama를 이용하는 방법부터 크롬 익스텐션을 통한 사용 방법까지 다양한 경로를 제공합니다. 사용자의 환경과 필요에 따라 선택하여 사용할 수 있습니다. Ollama란 무엇인가?Ollama는 로컬에서 대형 언어 모델(LLM)을 쉽게 사용할 수 있도록 지원하는 플랫폼입니다. macOS, Windows, Linux에서 간편하게 설치할 수 있으며, Docker를 지원하여 더욱 다양한 환경에서 활용 가능합니다. Ollama는 ollama run llama3와 같은 간단한 명령어로 빠르게 AI 모델과 상호작용할 수 있습니다. Llama3, Phi3, Wizardlm2, Gemma, CodeGemma..