로컬에서 무료로 사용할 수 있는 LLM 도구, Ollama 활용 가이드

반응형

이번 가이드에서는 Ollama 웹 UI를 활용하는 방법에 대해 상세하게 안내해 드립니다. 이 글은 PC와 모바일에서 Ollama를 이용하는 방법부터 크롬 익스텐션을 통한 사용 방법까지 다양한 경로를 제공합니다. 사용자의 환경과 필요에 따라 선택하여 사용할 수 있습니다.

 

Ollama란 무엇인가?

Ollama는 로컬에서 대형 언어 모델(LLM)을 쉽게 사용할 수 있도록 지원하는 플랫폼입니다. macOS, Windows, Linux에서 간편하게 설치할 수 있으며, Docker를 지원하여 더욱 다양한 환경에서 활용 가능합니다. Ollama는 ollama run llama3와 같은 간단한 명령어로 빠르게 AI 모델과 상호작용할 수 있습니다. Llama3, Phi3, Wizardlm2, Gemma, CodeGemma, LLaVa 등의 다양한 오픈 소스 모델을 지원하며, 사용자는 이들 중 필요한 모델을 선택하여 사용할 수 있습니다. 자세한 내용은 Ollama 공식 웹사이트에서 확인하실 수 있습니다.

 

Ollama 설치 방법

  1. Ollama 홈페이지에서 직접 다운로드하여 설치합니다.
  2. 맥 사용자는 homebrew를 통해 다음과 같이 간편하게 설치할 수 있습니다.
brew install ollama 

더 다양한 설치 방법이나 사용 방법은 Ollama의 Github 페이지에서 확인할 수 있습니다.

 

Ollama에서 모델 선택 및 실행 방법

Ollama는 llama3, phi3, codellama 등의 인기 있는 AI 모델을 제공합니다. llama3는 8b, 70b 모델을 지원하며, 각각 실행하기 위해 8GB, 64GB RAM이 필요합니다. 다양한 AI 모델을 Ollama 라이브러리 페이지에서 확인할 수 있습니다.

 

아래 명령어를 통해 원하는 모델을 실행할 수 있습니다:

# Meta에서 출시한 현재 가장 인기 있는 AI모델 
ollama run llama3  

# 코드 생성을 위한 AI모델 
ollama run codellama  

# 멀티모달 AI모델 
ollama run llava

위와 같은 명령어를 입력하면, 해당 모델은 자동으로 다운로드되고 실행됩니다.

 

Ollama 활용 예시

Ollama를 통해 매우 간편하게 LLM에 질문하고 답변을 받을 수 있습니다.

예를 들어, "세종대왕님 맥북 던짐 사건"에 대한 질문을 Mistral 모델로 실행하면, 다음과 같은 결과를 얻을 수 있습니다.

위 예시는 Ollama를 통해 LLM에 질문하고 답변을 받는 과정을 보여줍니다. 그러나 Ollama의 답변 품질이 GPT 4 Turbo에 비해 다소 떨어질 수 있다는 점을 고려하여 사용해야 합니다.

 

"세종대왕님 맥북 던짐 사건"에 관련된 기사는 아래에서 확인할 수 있습니다:

 

Ollama는 AI 모델을 로컬에서 사용하고자 하는 사용자에게 유용하며, 다양한 모델을 쉽게 다운로드하여 사용할 수 있는 장점이 있습니다. 그러나 사용자의 장비 사양에 따라 모델 선택에 제한이 있을 수 있으니 이점 주의해야 합니다.

 

Ollama 웹UI 사용 가이드

Ollama 웹UI의 사용 방법은 다음과 같습니다:

 

1. Ollama 서버 실행

먼저, 아래의 명령어를 사용하여 Ollama 서버를 실행합니다.

 OLLAMA_ORIGINS=* ollama serve

 

2. chatbot-ollama 코드 다운로드 및 패키지 설치

이후, chatbot-ollama 코드를 다운로드하고 필요한 패키지를 설치합니다.

git clone git@github.com:ivanfioravanti/chatbot-ollama.git 
cd chatbot-ollama   
npm install
오픈소스 중에서 open-webui가 가장 인기가 많고 기능이 강력하지만 설치하는 방법이 복잡합니다. 
그러나 chatbot-ollama는 설치 방법이 비교적 쉽습니다. 강력한 기능을 원한다면 open-webui를 추천합니다.

 

3. chatbot-ollama 웹서버 실행

마지막으로, chatbot-ollama 웹서버를 실행합니다.

npm run dev 

 

4. Ollama 웹UI 접속

웹서버를 실행한 후, 웹브라우저 주소창에 http://localhost:3000를 입력하면 Ollama 웹 UI에 접속할 수 있습니다. 아래는 웹 UI의 초기 화면 및 채팅 화면입니다.

 

Ollama 웹UI 크롬 익스텐션 사용하기

앞에서 설명한 Ollama 웹 UI를 사용하는 방법이 번거롭다면, 크롬 익스텐션을 통해 더 쉬운 접근이 가능합니다. 여기에서 “ollama-ui” 크롬 익스텐션을 다운로드하면 웹브라우저에서 쉽게 Ollama를 활용하실 수 있습니다.

 

Ollama 모바일앱 사용 가이드

모바일에서 Ollama를 사용하는 방법은 다음과 같습니다. 모바일앱에서 내 PC에서 실행중인 Ollama에 접속하기 위해서는 내 PC의 IP주소를 알아야 합니다.

 

1. PC의 로컬 IP 확인

먼저, 내 PC의 로컬 IP를 확인합니다.

 

2. Ollama 서버 재시작

만약 macOS를 사용 중이라면, 다음과 같이 launchctl setenv 명령어를 사용하여, 아래의 환경변수를 설정하여 IP 주소를 설정할 수 있습니다. OLLAMA_HOST에는 내 컴퓨터의 로컬 IP 주소를 입력합니다.

launchctl setenv OLLAMA_HOST "192.168.35.92:11434"
리눅스 사용자의 경우에는 Ollama FAQ 링크를 참고하여 Ollama 서버를 구성할 수 있습니다.


그 후에는 Ollama 앱을 종료하고 다시 실행합니다.

 

또한, 아래와 같은 명령어를 사용하여 Ollama 서버를 시작할 수도 있습니다:

OLLAMA_HOST=192.168.35.92:11434 ollama serve 

ngrok 서비스를 이용하면 외부에서 접속 가능하게 설정할 수도 있습니다.

 

 

3. 모바일 앱 설치 및 실행

모바일에서는 아래의 앱을 설치하여 사용하실 수 있습니다.

모바일과 PC를 동일한 네트워크에 연결한 후, Ollama 모바일 앱을 실행하고 Ollama 서버 IP를 입력하여 사용합니다.

 

모바일 앱에서 Mistral 모델을 사용하여 대화를 합니다.

 

기타 다른 모바일용 무료 LLM 앱 소개

아래에서 소개하는 앱들은 모두 iOS, Android, macOS, 그리고 Windows 환경에서 사용 가능합니다.

  • 다양한 AI 봇을 사용하고 싶다면 Poe 앱을 추천합니다.
  • 다른 모바일용 로컬 LLM을 찾으신다면 MLC LLM 앱도 추천합니다.(2024/05/03  실행시 오류)

 

결론

Ollama는 사용자가 로컬 환경에서 다양한 AI 언어 모델을 쉽게 이용할 수 있게 하는 도구입니다. 이 가이드는 설치부터 실행, 웹 UI와 모바일 앱 사용까지 전 과정을 상세히 설명합니다. 사용 환경에 맞춰 편리하게 Ollama를 활용하시기 바랍니다.


or

[카카오페이로 후원하기] [토스페이로 후원하기]

반응형