MacBook Pro에 Open WebUI Ollama 설치하기

Part 1In the Open WebUI Ollama가 뭔지, 왜 써야 하는지 개념을 잡았으니,
이제는 진짜로 맥북에서 돌려볼 차례입니다.
이번 2부에서는
- Ollama 설치
- 최신 모델(Qwen·Llama3 등) 받기
- Docker로 Open WebUI 띄우기
- 브라우저에서 접속해 “오, 진짜 ChatGPT 같다”까지 확인
여기까지가 목표예요.
1. 준비물 체크 – 이 정도면 Open WebUI + Ollama 충분합니다
먼저 제 개발환경부터 정리해볼게요.
- 기기: MacBook Pro (M2, 24GB RAM)
→ 7B~8B급 모델은 충분히 돌아갑니다. - OS: macOS Tahoe
- 필요한 것:
- Ollama (로컬 LLM 엔진)
- Docker Desktop for Mac (Open WebUI Ollama 컨테이너 실행용)
- (선택) 여유 디스크 30GB 이상 – 모델 여러 개 쓰려면 꽤 먹어요.
“생각보다 별거 없네?” 싶죠.
Open WebUI Ollama의 매력이 바로 이 심플함입니다.
2. Ollama 설치
2-1. Ollama 다운로드 & 설치
- 브라우저에서
ollama.com접속 - Download for macOS Click the button
.dmg파일을 내려받고, 실행 후Ollama아이콘을 Applications 폴더로 드래그- Launchpad에서 Ollama 실행
그럼 상단 메뉴바에 작은 아이콘이 하나 뜨고,
백그라운드에서 Ollama 서버가 자동으로 켜집니다.
👉 Open WebUI Ollama 구조에서,
Ollama는 “엔진”, Open WebUI는 “운전석” 정도로 생각해 두세요.
2-2. 터미널에서 Ollama 동작 확인
Spotlight(⌘+Space) → Terminal → 엔터 후:
ollama --version버전이 보이면 성공.
이제 Open WebUI 에서 쓸 첫 모델을 받아봅시다.
3. 최신 모델 받기 – Open WebUI Ollama에서 쓸 핵심 LLM 3종
Open WebUI 에서 쓸 모델은 자유지만,
MacBook Pro 24GB 기준으로 추천 조합은 이렇습니다.
- Qwen2.5 7B – 코딩·추론·분석에 강한 알리바바 계열 모델
- Llama 3 8B – 메타의 최신 Llama3, 전반적인 품질이 좋아요
- 한국어 특화 모델 – EXAONE 3.5 7.8B 또는 Llama3 Korean 계열
여기서는 예시로 Qwen2.5 + Llama3 + EXAONE 3종을 받아볼게요.
3-1. Qwen2.5 7B 받기
# 터미널에서 실행
ollama pull qwen2.5:7b3-2. Llama 3 8B 받기
ollama pull llama3:8b3-3. EXAONE 3.5 7.8B 받기 (한국어 글쓰기/요약용)
ollama pull exaone3.5:7.8b모델 목록 확인:
ollama listwhere qwen2.5:7b, llama3:8b, exaone3.5:7.8b가 보이면
Open WebUI 에서 쓸 LLM 엔진 군단이 준비된 겁니다.
4. Docker Desktop 설치 – Open WebUI 의 집을 지어주기
이제 Open WebUI를 올릴 차례인데,
맥에 직접 설치하는 방법도 있지만 Docker로 돌리는 게 압도적으로 편하고 깔끔in the file.
4-1. Docker Desktop for Mac 설치
Docker Desktop for Mac검색 후 공식 사이트에서 다운로드.dmg실행 → Docker 아이콘을 Applications로 드래그- 실행 후, 상단 메뉴바에서 고래 모양 아이콘 이 뜨면 성공
- 처음 실행 시 리소스 접근 권한은 모두 허용
터미널에서:
docker --version버전이 뜨면 Open WebUI 설치 준비 완료입니다.
5. Docker로 Open WebUI 실행하기
이제 핵심 명령 한 방입니다.
이 명령이 Open WebUI Ollama 컨테이너를 만들고 켜주는 역할을 합니다.
5-1. 컨테이너 실행 명령
터미널에서 한 줄씩(또는 그대로 복붙) 실행하세요:
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-e ENABLE_API_KEY_AUTH=true \
-e WEBUI_URL=http://localhost:3000 \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main각 옵션이 의미하는 바를 살짝 정리하면:
-p 3000:8080→ Β
브라우저에서http://localhost:3000으로 접속하면
컨테이너 내부 8080 포트의 Open WebUI에 연결--add-host=host.docker.internal:host-gateway→ Β
Open WebUI 컨테이너가 맥 호스트(Ollama 서버)를host.docker.internal이름으로 찾게 해 줌-e ENABLE_API_KEY_AUTH=true→ Β
나중에 장고 연동할 때 필요한 API 키 기능 Enable-e WEBUI_URL=http://localhost:3000→ Β
내부에서 자기 주소를 정확히 인식 (콜백/링크에 필요)-v open-webui:/app/backend/data→ Β
Open WebUI 설정·대화 기록을 Docker 볼륨에 저장 (컨테이너 갈아엎어도 데이터 유지)--restart always→ Β
맥 재부팅 후 Docker가 올라오면 Open WebUI Ollama도 자동으로 올라오게 Settings
실행 후 상태 확인:
docker psopen-webui 컨테이너가 Up 상태로 보이면
Open WebUI Ollama 서버가 맥북 안에서 조용히 기동 중이라는 뜻입니다.
6. 브라우저에서 Open WebUI Ollama 접속하기
이제 진짜 “ChatGPT 비슷한 화면”을 보게 되는 순간이에요.
- 브라우저(크롬/사파리)에서 주소창에:
http://localhost:3000 - 처음 접속하면 회원가입/로그인 화면이 뜹니다.
- 이메일: 아무 형태나 상관없지만 기억하기 쉬운 걸로 (예:
admin@local.test) - 비밀번호: 나중에 API 연동도 할 거라, 적당히 복잡하게
- 이메일: 아무 형태나 상관없지만 기억하기 쉬운 걸로 (예:
- 계정 만들고 로그인하면
드디어 Open WebUI Ollama의 메인 화면이 뜹니다.
왼쪽에는 대화 목록, 오른쪽에는 채팅창,
그리고 상단에는 모델 선택 드롭다운…
딱 봐도 ChatGPT 느낌 나는 UI일 거예요.
이제부터 이 화면이 바로 Open WebUI Ollama의 “운전석”입니다.

7. Open WebUI 에서 Ollama 모델 연결 확인
지금 상태에서 모델이 안 보이면 아직 반만 성공입니다.
Open WebUI 가 맥북의 Ollama 서버를 제대로 보고 있는지 확인해야 해요.
- 우측 상단 프로필 아이콘 → Settings(설정) Click
- 왼쪽 메뉴에서 외부 도구 / Integrations / Connections 비슷한 탭 선택
(버전에 따라 이름이 조금 다를 수 있어요) - 그 안에
Ollama관련 설정이 있을 겁니다. - Base URL / Server URL 항목을
http://host.docker.internal:11434로 설정
- 왜
localhost가 아니라host.docker.internal이냐?
→ Open WebUI Ollama는 Docker 컨테이너 안에서 돌아가고 있고,
컨테이너 입장에서localhost는 “컨테이너 자기 자신”이기 때문입니다.
맥북 호스트(Ollama)가 아니라요.
설정 저장 후, 모델 선택 드롭다운을 열어보면:
qwen2.5:7bllama3:8bexaone3.5:7.8b
같이 아까 ollama pull 했던 애들이 쭉 떠 있어야 합니다.
이제 진짜 Open WebUI Ollama 조합이 완성된 거예요 🎉
8. 첫 테스트 – Open WebUI Ollama로 한국어 챗봇 만들기

마지막으로 간단한 테스트를 해볼까요?
- 모델 선택:
qwen2.5:7b선택 - 시스템 프롬프트(모델 옵션에서 수정 가능)에 다음 내용 입력:
너는 한국어 전용 인공지능 비서야. 모든 답변은 반드시 한국어로만 작성하고, 존댓말을 사용해줘. 필요할 때만 짧게 영어 용어를 괄호 안에 덧붙여도 좋아. 설명은 단계별로, 초보자도 이해할 수 있게 차근차근 해줘. - 채팅창에 입력:
이제부터 너를 내 전용 튜터로 쓸 거야. Open WebUI + Ollama 조합이 뭔지 초등학생에게 설명하듯 쉽게 설명해줘. - 몇 초 후, 한국어로 친절한 설명이 돌아오면 성공!
이제 진짜 “내 맥북 안에 사는 로컬 ChatGPT” 갖게 된 겁니다.
9. 2부 마무리 – 이제 무엇을 할 수 있을까?
지금까지 2부에서 한 일들을 정리하면:
- MacBook Pro에 Ollama Install
- Qwen2.5·Llama3·EXAONE 같은 최신 모델 다운로드
- Docker Desktop 설치
- Docker로 Open WebUI + Ollama 컨테이너 실행
- 브라우저에서
http://localhost:3000접속 → 모델 연결까지 완료
이제 이 Open WebUI Ollama 환경 위에서:
- 조직문화 면담 요약
- 규정/절차 요약
- 보고서 초안 작성
- 코딩 보조 (장고, 파이썬, R) 등
온갖 실험을 다 해볼 수 있는 상태가 되었습니다.
다음 3부에서는:
Open WebUI 설정 튜닝 + 모델/언어/한국어 프롬프트 세팅 + JWT/API 키 발급 구조
같은 “환경 최적화 + API 쓰기 직전 단계”를 다루어 보도록 하겠습니다.







