맥북에서 나만의 로컬 ChatGPT 만들기 – Open WebUI Ollama 완전 정복

다음과 같은 생각 한 번쯤 하셨다면, 바로 그 해답이 Open WebUI Ollama 조합입니다.
“클라우드 ChatGPT는 좋은데… 회사 자료, 민감한 내용은 넣기 찜찜하다.”
“인터넷 없이도 돌아가는 나만의 AI 비서를 맥북에 깔 수 없을까?”
- Ollama는 맥/윈도우/리눅스에서 로컬 LLM(대규모 언어 모델)을 쉽게 돌릴 수 있게 해주는 엔진である、
- Open WebUI는 그 Ollama를 포함해 여러 LLM 러너를 지원하는, ChatGPT 스타일의 오픈소스 웹 인터페이스そうです。
둘을 합치면?
“브라우저로 접속하는 나만의 ChatGPT,
근데 뒷단은 전부 내 맥북에서 돌고, 데이터도 밖으로 안 나가는 구조”
바로 이게 Open WebUI Ollama 조합의 핵심입니다.
1. Open WebUI Ollama 한 줄 정의
헷갈리지 않게 아주 짧게 정리해볼게요.

- Ollama
- 역할: “AI 모델을 실제로 실행하는 LLM 서버”
- 특징: 맥북 M 시리즈 칩에 최적화된 모델들을 쉽게 설치·관리할 수 있게 해줌
- はい:
qwen2.5:7b,llama3,deepseek-r1, 한국어 튜닝 모델 등
- Open WebUI
- 역할: “ChatGPT 같은 웹 화면 + 모델 관리 + RAG + 플러그인까지 들어 있는 프론트/허브”
- Ollama, OpenAI 호환 API, 자체 내장 엔진 등 다양한 백엔드를 붙일 수 있음
- 여러 대화방, 히스토리, 프롬프트 템플릿, 파일 업로드, RAG 등 편의기능 제공
- Open WebUI Ollama 조합
- 브라우저: ChatGPT 같은 UI
- 서버: 내 맥북에서 도는 Ollama LLM
- 네트워크: 인터넷이 끊겨도 동작(모델만 로컬에 내려받았다면)
つまり、 Open WebUI Ollamaは
“클라우드 대신 내 맥북을 작은 AI 데이터센터처럼 쓰는 방법”
이라고 생각하시면 됩니다.

2. Open WebUI Ollama 조합으로 할 수 있는 것들 (Use cases)
さあ Use cases 관점에서 볼게요.
“이걸 깔면 대체 뭘 하냐?”를 상상하기 쉬운 쪽부터.
2-1. 사내·연구 데이터로 안전하게 실험하기
- 사내 문서, 안전문화 인터뷰 기록, 연구 리포트 같은 민감한 데이터を
외부 서버로 보내지 않고도 요약/분석/질의응답 가능 - はい:
- “지난 5년간 조직문화 면담 내용을 정리해서 긍정·우려 포인트 뽑아줘.”
- “이 보고서에 나오는 키워드를 중심으로 시각화 아이디어를 제안해줘.”
이런 시나리오는 클라우드 ChatGPT에 바로 던지긴 부담되죠.
しかし Open WebUI Ollama 환경에서는 이 데이터가 전부 맥북 로컬 안에만 머무르니까 큰 걱정이 없어요.
2-2. 인터넷 끊긴 비행기나 출장지에서 코딩/문서 작업
- 해외출장 가는 비행기에서 노트북만 들고 다음도 가능하죠!
- 코드 리뷰
- 보고서 초안 작성
- アイデアのブレインストーミング
- 와이파이 없어도 돌아가는 로컬 ChatGPT로 많은 도움을 받을 수 있습니다.
특히, 제가 보유 중인 맥북 Pro 24GB RAM 정도면 7B~8B급 모델(Open WebUI Ollama 기준)은 충분히 안정적으로 돌릴 수 있고 14B 정도도 가능합니다.
2-3. 실험용 AI 샌드박스: 모델 비교 놀이터
같은 프롬프트를 두고 Qwen, Llama, EXAONE, DeepSeek 같은 모델들을 Open WebUI에서 모델만 바꿔가며 바로 비교 가능합니다. 다음 같은 감각을 직접 몸으로 체험할 수 있어요.
- “코딩은 Qwen이 좋은데, 한국어 설명은 Llama3 Korean이 편하네?”
Open WebUI Ollama 조합의 장점은 “엔진(Ollama)을 갈아끼우는 건 터미널에서 한 줄의 명령어, UI는 그대로”라는 점입니다.
2-4. 나중에 Django, Flask 같은 웹앱과 연동하기 위한 발판
이번 주제는 총 5부의 시리즈 형태로 소개해 드릴 텐데요. 마지막 목표가 바로 이거죠.
- 지금은 Open WebUI Ollama로 사람이 직접 대화しかし
- 나중에는 Django 조직문화 진단 시스템에서
API로 Open WebUI를 부르고 → 요약 결과를 DB에 저장할 수 있게 됩니다.
이번 1부에서는 “왜 굳이 Open WebUI Ollama인가?”까지 잡고, 설치·API 연동은 2~5부에서 조금씩 풀어 나갈려고 합니다. 기대가 되지 않으시나요?
3. Open WebUI Ollama 전체 구조 한눈에 보기 (Organizing)
이번엔 Organizing 관점에서, 구조를 크게 정리해볼게요.
3-1. 가장 단순한 구조
[웹브라우저] ←→ [Open WebUI] ←→ [Ollama] ←→ [로컬 LLM 모델들]- 사용자는 Ollama 등 기반 시스템을 가동해두고 브라우저에서 Open WebUI에 접속합니다. (
http://localhost:3000같은 주소) - Open WebUI는 채팅 UI, 대화 히스토리, 모델 호출은 대부분 Ollama로 던져서 처리します。
(Open WebUI는 여러 LLM 러너 중 하나로 Ollama를 지원합니다)
이 그림만 머릿속에 들어오면 “아, Open WebUI Ollama 조합의 역할 분담이 이렇구나”하는 감이 딱 잡혀요.
3-2. 나중에 ジャンゴ가 끼어들면?
장고 연동은 4~5부에서 자세히 하겠지만, 미리 맛보기만 해보면 구조가 이렇게 변합니다:
[사용자 브라우저]
↓ (사내 시스템 화면)
[Django 웹앱] ←→ [Open WebUI API] ←→ [Ollama] ←→ [로컬 LLM]- Djangoは “사내 업무 UI + 비즈니스 로직 + DB”
- Open WebUI Ollama는 “LLM 처리 엔진 + Chat/Agent 허브”
즉, Open WebUI Ollama는
“사내 여러 시스템이 공통으로 쓰는 LLM 허브”
역할을 할 수 있습니다. (RAG, 에이전트, 파일 업로드까지 한 번에)
이번 시리즈에서는 장고 연계 직전까지
- 로컬에서
- 맥북 기준으로
- Open WebUI Ollama 환경을 안정적으로 세팅하는 데 초점을 맞출 거예요.
4. 왜 그냥 Ollama만 쓰지 않고, Open WebUI까지 같이 쓸까?
솔직히 말해서,
터미널 좋아하면 ollama run qwen2.5:7b 만으로도 채팅은 됩니다.
그런데 막상 써보면…
- 대화 히스토리 관리가 힘들다
- 어느 터미널에서 무슨 대화를 했는지 기억이 안 남
- 모델 여러 개를 비교하기가 번거롭다
- 매번 명령어를 다시 치고, 로그도 흩어짐
- 파일 업로드, RAG, 에이전트 등 고급 기능이 귀찮다
Open WebUI는 이 모든 걸 웹 UI에서 한 번에 묶어 줍니다.
- ChatGPT처럼 좌측에 대화 목록, 우측에 채팅창
- 모델 선택, 시스템 프롬프트, 프롬프트 프리셋, RAG 설정 등
- 심지어 여러 사용자를 위한 계정·권한 구조까지 마련되어 있습니다.
그래서 실전에서는
“Ollama만 쓰던 사람도, 결국 Open WebUI Ollama 조합으로 넘어가는 경우가 많다.”
라고 보시면 됩니다.
5. MacBook Pro 24GB에서 Open WebUI Ollama, 현실 체감은?

맥북 스펙(예시):
- MacBook Pro (M 시리즈)
- 메모리 24GB
- 저장공간 512GB
이 정도면 Open WebUI Ollama 조합で
- 7B~8B 모델 여러 개 깔아두고,
- 동시에 한두 개 정도는 무난하게 돌릴 수 있는 스펙이에요.
일반적으로
- 코드/분석용: Qwen 2.5 / DeepSeek 계열
- 한국어/글쓰기: Llama3 Korean, EXAONE 등
을 Open WebUI Ollama 환경에서 왔다 갔다 하면서 쓰면
체감상 클라우드 ChatGPT랑 꽤 비슷한 느낌으로 작업할 수 있습니다.
6. 1부 마무리 – 앞으로 5부에서 다룰 내용 정리 (Organizing 관점)
이번 1부에서는 최대한 개념과 그림만 잡았습니다.
앞으로의 계획을 정리해보면
🔹 2부 – 맥북에 Ollama + Open WebUI Ollama 환경 설치하기
- Ollama 설치 (공식 사이트 or Homebrew)
- Qwen, Llama3, 한국어 모델 몇 개 다운받기
- Docker Desktop 설치
- Docker로 Open WebUI Ollama 실행 (포트, 볼륨, 재시작 옵션 정리)
🔹 3부 – Open WebUI Ollama 기본 세팅 & 모델 연결
- 초기 계정(admin) 만들기
- Ollama 서버와 연결(URL 설정)
- 한국어 전용 시스템 프롬프트 템플릿
- 보안 관점에서 “외부에 노출되면 안 되는 이유” 간단 짚기
🔹 4부 – Open WebUI API 구조 이해 & Postman / Python으로 직접 테스트
/api/chat/completions구조 (OpenAI 호환)- JWT 토큰/비밀 키를 Bearer로 사용하는 방법
- 간단한 Python 예제로 요약/번역 호출해보기
🔹 5부 – 안전문화 면담 텍스트 요약 워크플로우 설계 (장고 연동 직전까지)
- “면담 텍스트 → 청크 나누기 → 1차 요약 → 최종 요약” 개념 설계
- 어떤 프롬프트 구조가 안전문화 분석에 적합한지
- 나중에 Django에서 그대로 옮겨 쓸 수 있는 API 호출 패턴까지 생각해두기
그리고 그 다음 시리즈에서
장고 프로젝트와 본격적으로 연결하는 코드를 들어가면
안전문화 진단 통합관리 시스템에
진짜 “AI 요약 엔진”이 붙게 되는 거죠.
시작이 반입니다.
여러분은 벌써 반을 넘으셨습니다. 조금 더 힘내보시죠!





