<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://lms.onnocenter.or.id/wiki/index.php?action=history&amp;feed=atom&amp;title=LLM%3A_multiple_open-webui</id>
	<title>LLM: multiple open-webui - Revision history</title>
	<link rel="self" type="application/atom+xml" href="https://lms.onnocenter.or.id/wiki/index.php?action=history&amp;feed=atom&amp;title=LLM%3A_multiple_open-webui"/>
	<link rel="alternate" type="text/html" href="https://lms.onnocenter.or.id/wiki/index.php?title=LLM:_multiple_open-webui&amp;action=history"/>
	<updated>2026-04-20T19:12:22Z</updated>
	<subtitle>Revision history for this page on the wiki</subtitle>
	<generator>MediaWiki 1.45.1</generator>
	<entry>
		<id>https://lms.onnocenter.or.id/wiki/index.php?title=LLM:_multiple_open-webui&amp;diff=72145&amp;oldid=prev</id>
		<title>Unknown user at 02:01, 25 March 2025</title>
		<link rel="alternate" type="text/html" href="https://lms.onnocenter.or.id/wiki/index.php?title=LLM:_multiple_open-webui&amp;diff=72145&amp;oldid=prev"/>
		<updated>2025-03-25T02:01:14Z</updated>

		<summary type="html">&lt;p&gt;&lt;/p&gt;
&lt;a href=&quot;https://lms.onnocenter.or.id/wiki/index.php?title=LLM:_multiple_open-webui&amp;amp;diff=72145&amp;amp;oldid=72144&quot;&gt;Show changes&lt;/a&gt;</summary>
		<author><name>Unknown user</name></author>
	</entry>
	<entry>
		<id>https://lms.onnocenter.or.id/wiki/index.php?title=LLM:_multiple_open-webui&amp;diff=72144&amp;oldid=prev</id>
		<title>Unknown user: Created page with &quot;Untuk menjalankan **beberapa instance Open WebUI** pada **port yang berbeda** dan semuanya terhubung ke **satu instance Ollama LLM**, kamu bisa menggunakan **Docker Compose**...&quot;</title>
		<link rel="alternate" type="text/html" href="https://lms.onnocenter.or.id/wiki/index.php?title=LLM:_multiple_open-webui&amp;diff=72144&amp;oldid=prev"/>
		<updated>2025-03-25T01:46:04Z</updated>

		<summary type="html">&lt;p&gt;Created page with &amp;quot;Untuk menjalankan **beberapa instance Open WebUI** pada **port yang berbeda** dan semuanya terhubung ke **satu instance Ollama LLM**, kamu bisa menggunakan **Docker Compose**...&amp;quot;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;New page&lt;/b&gt;&lt;/p&gt;&lt;div&gt;Untuk menjalankan **beberapa instance Open WebUI** pada **port yang berbeda** dan semuanya terhubung ke **satu instance Ollama LLM**, kamu bisa menggunakan **Docker Compose** atau `docker run` manual.&lt;br /&gt;
&lt;br /&gt;
Berikut adalah panduan **lengkap** dan jelas menggunakan **Docker**.&lt;br /&gt;
&lt;br /&gt;
---&lt;br /&gt;
&lt;br /&gt;
## ✅ **Langkah 1: Jalankan Ollama (LLM Server)**&lt;br /&gt;
Kamu hanya butuh **satu instance Ollama**. Jalankan Ollama seperti ini:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
docker run -d \&lt;br /&gt;
  --name ollama \&lt;br /&gt;
  --restart always \&lt;br /&gt;
  -p 11434:11434 \&lt;br /&gt;
  -v ollama:/root/.ollama \&lt;br /&gt;
  ollama/ollama&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
&amp;gt; Port 11434 adalah default API port untuk Ollama. Jangan ubah ini agar kompatibel dengan Open WebUI.&lt;br /&gt;
&lt;br /&gt;
---&lt;br /&gt;
&lt;br /&gt;
## ✅ **Langkah 2: Tarik dan Load Model LLM (opsional)**&lt;br /&gt;
Misalnya, kamu ingin menggunakan `llama3`:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
docker exec -it ollama ollama pull llama3&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Atau bisa kamu ganti sesuai model (misalnya `gemma`, `mistral`, `llama2`, dll).&lt;br /&gt;
&lt;br /&gt;
---&lt;br /&gt;
&lt;br /&gt;
## ✅ **Langkah 3: Jalankan Beberapa Open WebUI (di port berbeda)**&lt;br /&gt;
Misalnya kamu ingin 3 Open WebUI di port `3000`, `3001`, dan `3002`.&lt;br /&gt;
&lt;br /&gt;
### Open WebUI Port 3000:&lt;br /&gt;
```bash&lt;br /&gt;
docker run -d \&lt;br /&gt;
  --name openwebui1 \&lt;br /&gt;
  --restart always \&lt;br /&gt;
  -p 3000:8080 \&lt;br /&gt;
  -e OLLAMA_BASE_URL=http://&amp;lt;host-ip&amp;gt;:11434 \&lt;br /&gt;
  openwebui/openwebui&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
### Open WebUI Port 3001:&lt;br /&gt;
```bash&lt;br /&gt;
docker run -d \&lt;br /&gt;
  --name openwebui2 \&lt;br /&gt;
  --restart always \&lt;br /&gt;
  -p 3001:8080 \&lt;br /&gt;
  -e OLLAMA_BASE_URL=http://&amp;lt;host-ip&amp;gt;:11434 \&lt;br /&gt;
  openwebui/openwebui&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
### Open WebUI Port 3002:&lt;br /&gt;
```bash&lt;br /&gt;
docker run -d \&lt;br /&gt;
  --name openwebui3 \&lt;br /&gt;
  --restart always \&lt;br /&gt;
  -p 3002:8080 \&lt;br /&gt;
  -e OLLAMA_BASE_URL=http://&amp;lt;host-ip&amp;gt;:11434 \&lt;br /&gt;
  openwebui/openwebui&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
&amp;gt; **Ganti `&amp;lt;host-ip&amp;gt;`** dengan IP address atau `localhost` jika dijalankan dari PC yang sama.&lt;br /&gt;
&lt;br /&gt;
---&lt;br /&gt;
&lt;br /&gt;
## ✅ Catatan Penting&lt;br /&gt;
&lt;br /&gt;
- **OLLAMA_BASE_URL** harus mengarah ke IP atau hostname dari instance `ollama`, bisa juga `host.docker.internal` (khusus pengguna Docker Desktop di Windows/Mac).&lt;br /&gt;
- Kamu bisa membuat data Open WebUI persistent dengan menambahkan `-v` untuk volume storage.&lt;br /&gt;
- Jangan lupa, masing-masing container Open WebUI **punya user login terpisah** (walau LLM-nya sama).&lt;br /&gt;
&lt;br /&gt;
---&lt;br /&gt;
&lt;br /&gt;
## ✅ Versi Docker Compose (Opsional)&lt;br /&gt;
&lt;br /&gt;
Kalau kamu ingin pakai `docker-compose.yml`:&lt;br /&gt;
&lt;br /&gt;
```yaml&lt;br /&gt;
version: &amp;#039;3.8&amp;#039;&lt;br /&gt;
&lt;br /&gt;
services:&lt;br /&gt;
  ollama:&lt;br /&gt;
    image: ollama/ollama&lt;br /&gt;
    container_name: ollama&lt;br /&gt;
    ports:&lt;br /&gt;
      - &amp;quot;11434:11434&amp;quot;&lt;br /&gt;
    volumes:&lt;br /&gt;
      - ollama_data:/root/.ollama&lt;br /&gt;
    restart: always&lt;br /&gt;
&lt;br /&gt;
  openwebui1:&lt;br /&gt;
    image: openwebui/openwebui&lt;br /&gt;
    container_name: openwebui1&lt;br /&gt;
    ports:&lt;br /&gt;
      - &amp;quot;3000:8080&amp;quot;&lt;br /&gt;
    environment:&lt;br /&gt;
      - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
    restart: always&lt;br /&gt;
&lt;br /&gt;
  openwebui2:&lt;br /&gt;
    image: openwebui/openwebui&lt;br /&gt;
    container_name: openwebui2&lt;br /&gt;
    ports:&lt;br /&gt;
      - &amp;quot;3001:8080&amp;quot;&lt;br /&gt;
    environment:&lt;br /&gt;
      - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
    restart: always&lt;br /&gt;
&lt;br /&gt;
  openwebui3:&lt;br /&gt;
    image: openwebui/openwebui&lt;br /&gt;
    container_name: openwebui3&lt;br /&gt;
    ports:&lt;br /&gt;
      - &amp;quot;3002:8080&amp;quot;&lt;br /&gt;
    environment:&lt;br /&gt;
      - OLLAMA_BASE_URL=http://ollama:11434&lt;br /&gt;
    restart: always&lt;br /&gt;
&lt;br /&gt;
volumes:&lt;br /&gt;
  ollama_data:&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
Jalankan dengan:&lt;br /&gt;
&lt;br /&gt;
```bash&lt;br /&gt;
docker compose up -d&lt;br /&gt;
```&lt;br /&gt;
&lt;br /&gt;
---&lt;br /&gt;
&lt;br /&gt;
Kalau kamu butuh contoh penggunaan Open WebUI dari banyak user (kayak LAN cafe AI 🤖), atau mau setup proxy + login bersama, aku bisa bantuin juga. Mau dilanjut ke situ?&lt;/div&gt;</summary>
		<author><name>Unknown user</name></author>
	</entry>
</feed>