MacBook Pro에 Open WebUI Ollama 설치하기

flowchart_docker

1부에서 Open WebUI Ollama가 뭔지, 왜 써야 하는지 개념을 잡았으니,
이제는 진짜로 맥북에서 돌려볼 차례입니다.

이번 2부에서는

  • Ollama 설치
  • 최신 모델(Qwen·Llama3 등) 받기
  • Docker로 Open WebUI 띄우기
  • 브라우저에서 접속해 “오, 진짜 ChatGPT 같다”까지 확인

여기까지가 목표예요.

1. 준비물 체크 – 이 정도면 Open WebUI + Ollama 충분합니다

먼저 제 개발환경부터 정리해볼게요.

  • 기기: MacBook Pro (M2, 24GB RAM)
    → 7B~8B급 모델은 충분히 돌아갑니다.
  • OS: macOS Tahoe
  • 필요한 것:
    1. Ollama (로컬 LLM 엔진)
    2. Docker Desktop for Mac (Open WebUI Ollama 컨테이너 실행용)
    3. (선택) 여유 디스크 30GB 이상 – 모델 여러 개 쓰려면 꽤 먹어요.

“생각보다 별거 없네?” 싶죠.
Open WebUI Ollama의 매력이 바로 이 심플함입니다.

2. Ollama 설치

2-1. Ollama 다운로드 & 설치

  1. 브라우저에서 ollama.com 접속
  2. Download for macOS 버튼 클릭
  3. .dmg 파일을 내려받고, 실행 후 Ollama 아이콘을 Applications 폴더로 드래그
  4. Launchpad에서 Ollama 실행

그럼 상단 메뉴바에 작은 아이콘이 하나 뜨고,
백그라운드에서 Ollama 서버가 자동으로 켜집니다.

👉 Open WebUI Ollama 구조에서,
Ollama는 “엔진”, Open WebUI는 “운전석” 정도로 생각해 두세요.

2-2. 터미널에서 Ollama 동작 확인

Spotlight(⌘+Space) → Terminal → 엔터 후:

ollama --version

버전이 보이면 성공.
이제 Open WebUI 에서 쓸 첫 모델을 받아봅시다.

3. 최신 모델 받기 – Open WebUI Ollama에서 쓸 핵심 LLM 3종

Open WebUI 에서 쓸 모델은 자유지만,
MacBook Pro 24GB 기준으로 추천 조합은 이렇습니다.

  1. Qwen2.5 7B – 코딩·추론·분석에 강한 알리바바 계열 모델
  2. Llama 3 8B – 메타의 최신 Llama3, 전반적인 품질이 좋아요
  3. 한국어 특화 모델 – EXAONE 3.5 7.8B 또는 Llama3 Korean 계열

여기서는 예시로 Qwen2.5 + Llama3 + EXAONE 3종을 받아볼게요.

3-1. Qwen2.5 7B 받기

# 터미널에서 실행
ollama pull qwen2.5:7b

3-2. Llama 3 8B 받기

ollama pull llama3:8b

3-3. EXAONE 3.5 7.8B 받기 (한국어 글쓰기/요약용)

ollama pull exaone3.5:7.8b

모델 목록 확인:

ollama list

여기서 qwen2.5:7b, llama3:8b, exaone3.5:7.8b가 보이면
Open WebUI 에서 쓸 LLM 엔진 군단이 준비된 겁니다.

4. Docker Desktop 설치 – Open WebUI 의 집을 지어주기

이제 Open WebUI를 올릴 차례인데,
맥에 직접 설치하는 방법도 있지만 Docker로 돌리는 게 압도적으로 편하고 깔끔합니다.

4-1. Docker Desktop for Mac 설치

  1. Docker Desktop for Mac 검색 후 공식 사이트에서 다운로드
  2. .dmg 실행 → Docker 아이콘을 Applications로 드래그
  3. 실행 후, 상단 메뉴바에서 고래 모양 아이콘 이 뜨면 성공
  4. 처음 실행 시 리소스 접근 권한은 모두 허용

터미널에서:

docker --version

버전이 뜨면 Open WebUI 설치 준비 완료입니다.

5. Docker로 Open WebUI 실행하기

이제 핵심 명령 한 방입니다.
이 명령이 Open WebUI Ollama 컨테이너를 만들고 켜주는 역할을 합니다.

5-1. 컨테이너 실행 명령

터미널에서 한 줄씩(또는 그대로 복붙) 실행하세요:

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -e ENABLE_API_KEY_AUTH=true \
  -e WEBUI_URL=http://localhost:3000 \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

각 옵션이 의미하는 바를 살짝 정리하면:

  • -p 3000:8080
    브라우저에서 http://localhost:3000 으로 접속하면
    컨테이너 내부 8080 포트의 Open WebUI에 연결
  • --add-host=host.docker.internal:host-gateway
    Open WebUI 컨테이너가 맥 호스트(Ollama 서버)를 host.docker.internal 이름으로 찾게 해 줌
  • -e ENABLE_API_KEY_AUTH=true
    나중에 장고 연동할 때 필요한 API 키 기능 활성화
  • -e WEBUI_URL=http://localhost:3000
    내부에서 자기 주소를 정확히 인식 (콜백/링크에 필요)
  • -v open-webui:/app/backend/data
    Open WebUI 설정·대화 기록을 Docker 볼륨에 저장 (컨테이너 갈아엎어도 데이터 유지)
  • --restart always
    맥 재부팅 후 Docker가 올라오면 Open WebUI Ollama도 자동으로 올라오게 설정

실행 후 상태 확인:

docker ps

open-webui 컨테이너가 Up 상태로 보이면
Open WebUI Ollama 서버가 맥북 안에서 조용히 기동 중이라는 뜻입니다.

6. 브라우저에서 Open WebUI Ollama 접속하기

이제 진짜 “ChatGPT 비슷한 화면”을 보게 되는 순간이에요.

  1. 브라우저(크롬/사파리)에서 주소창에: http://localhost:3000
  2. 처음 접속하면 회원가입/로그인 화면이 뜹니다.
    • 이메일: 아무 형태나 상관없지만 기억하기 쉬운 걸로 (예: admin@local.test)
    • 비밀번호: 나중에 API 연동도 할 거라, 적당히 복잡하게
  3. 계정 만들고 로그인하면
    드디어 Open WebUI Ollama의 메인 화면이 뜹니다.

왼쪽에는 대화 목록, 오른쪽에는 채팅창,
그리고 상단에는 모델 선택 드롭다운…
딱 봐도 ChatGPT 느낌 나는 UI일 거예요.

이제부터 이 화면이 바로 Open WebUI Ollama의 “운전석”입니다.

open webui ollama combination

7. Open WebUI 에서 Ollama 모델 연결 확인

지금 상태에서 모델이 안 보이면 아직 반만 성공입니다.
Open WebUI 가 맥북의 Ollama 서버를 제대로 보고 있는지 확인해야 해요.

  1. 우측 상단 프로필 아이콘 → Settings(설정) 클릭
  2. 왼쪽 메뉴에서 외부 도구 / Integrations / Connections 비슷한 탭 선택
    (버전에 따라 이름이 조금 다를 수 있어요)
  3. 그 안에 Ollama 관련 설정이 있을 겁니다.
  4. Base URL / Server URL 항목을 http://host.docker.internal:11434 로 설정
  • localhost가 아니라 host.docker.internal 이냐?
    → Open WebUI Ollama는 Docker 컨테이너 안에서 돌아가고 있고,
    컨테이너 입장에서 localhost는 “컨테이너 자기 자신”이기 때문입니다.
    맥북 호스트(Ollama)가 아니라요.

설정 저장 후, 모델 선택 드롭다운을 열어보면:

  • qwen2.5:7b
  • llama3:8b
  • exaone3.5:7.8b

같이 아까 ollama pull 했던 애들이 쭉 떠 있어야 합니다.

이제 진짜 Open WebUI Ollama 조합이 완성된 거예요 🎉

8. 첫 테스트 – Open WebUI Ollama로 한국어 챗봇 만들기

open webui ollama 2-2

마지막으로 간단한 테스트를 해볼까요?

  1. 모델 선택: qwen2.5:7b 선택
  2. 시스템 프롬프트(모델 옵션에서 수정 가능)에 다음 내용 입력: 너는 한국어 전용 인공지능 비서야. 모든 답변은 반드시 한국어로만 작성하고, 존댓말을 사용해줘. 필요할 때만 짧게 영어 용어를 괄호 안에 덧붙여도 좋아. 설명은 단계별로, 초보자도 이해할 수 있게 차근차근 해줘.
  3. 채팅창에 입력: 이제부터 너를 내 전용 튜터로 쓸 거야. Open WebUI + Ollama 조합이 뭔지 초등학생에게 설명하듯 쉽게 설명해줘.
  4. 몇 초 후, 한국어로 친절한 설명이 돌아오면 성공!

이제 진짜 “내 맥북 안에 사는 로컬 ChatGPT” 갖게 된 겁니다.

9. 2부 마무리 – 이제 무엇을 할 수 있을까?

지금까지 2부에서 한 일들을 정리하면:

  1. MacBook Pro에 Ollama 설치
  2. Qwen2.5·Llama3·EXAONE 같은 최신 모델 다운로드
  3. Docker Desktop 설치
  4. Docker로 Open WebUI + Ollama 컨테이너 실행
  5. 브라우저에서 http://localhost:3000 접속 → 모델 연결까지 완료

이제 이 Open WebUI Ollama 환경 위에서:

  • 조직문화 면담 요약
  • 규정/절차 요약
  • 보고서 초안 작성
  • 코딩 보조 (장고, 파이썬, R) 등

온갖 실험을 다 해볼 수 있는 상태가 되었습니다.

다음 3부에서는:

Open WebUI 설정 튜닝 + 모델/언어/한국어 프롬프트 세팅 + JWT/API 키 발급 구조

같은 “환경 최적화 + API 쓰기 직전 단계”를 다루어 보도록 하겠습니다.

open webui ollama comm

유사한 게시물