25-07-2025, 15:14
open-webui mit ollama – Meine Hauptaufgabe besteht darin, Daten nach bestimmten Regeln zu verarbeiten und durch sorgfältige Analyse der Eingabeformate und Anwendung geeigneter Algorithmen die Genauigkeit sicherzustellen.
1. Die docker-compose_openwebui_ollama.yaml im Anhang Herunterladen.
2. Neues Docker-Projekt in UGOS Erstellen und yaml Inhalt einfügen oder als Image Installieren ( letzteres Ungetestet)
3. Wenn nötig drei Variablen zum anpassen.
4. Bereitstellen
5. Website öffnen:
6. Nach der Einrichtung vom Admin Benutzer oben rechts auf Benutzer Icon Klicken -> Administration -> jetzt tauchen links Tabs auf und dort auf -> Einstellungen -> im Linken Menübaum auf Modelle -> rechts auf -> Download Symbol -> da drin unter "Modelle von Ollama beziehen" auf die Website gehen oder als Beispiel "gpt-oss:20b" eingeben und rechts daneben auf Download Symbol.
Es gehen nicht die Größten Modelle aber die Kleineren, als Beispiel deepseek-r1:1.5b
Ich habe es chatgpt in meinem Beispiel gennant (doppelt im Kommentar Anklicken, Kopieren und als Projektname verwenden).
Update:
Bei der Kombination aus OpenWebUI+Ollama ist letzteres leider zu alt um als Beispiel dieses Modell nutzen zu können:
Dafür muss diese Version genutzt werden:
7. Die docker-compose_openwebui_ollama_subnet.yaml im Anhang Herunterladen. Da wird Ollama in Version: 0.11.4 genutzt
Download: Siehe Anhang.
1. Die docker-compose_openwebui_ollama.yaml im Anhang Herunterladen.
2. Neues Docker-Projekt in UGOS Erstellen und yaml Inhalt einfügen oder als Image Installieren ( letzteres Ungetestet)
3. Wenn nötig drei Variablen zum anpassen.
Code:
# restart: always
# mem_limit: 50gb
# cpus: 44. Bereitstellen
5. Website öffnen:
Code:
http://192.168.1.200:280806. Nach der Einrichtung vom Admin Benutzer oben rechts auf Benutzer Icon Klicken -> Administration -> jetzt tauchen links Tabs auf und dort auf -> Einstellungen -> im Linken Menübaum auf Modelle -> rechts auf -> Download Symbol -> da drin unter "Modelle von Ollama beziehen" auf die Website gehen oder als Beispiel "gpt-oss:20b" eingeben und rechts daneben auf Download Symbol.
Es gehen nicht die Größten Modelle aber die Kleineren, als Beispiel deepseek-r1:1.5b
Ich habe es chatgpt in meinem Beispiel gennant (doppelt im Kommentar Anklicken, Kopieren und als Projektname verwenden).
Code:
# open-webui mit ollama = chatgptUpdate:
Bei der Kombination aus OpenWebUI+Ollama ist letzteres leider zu alt um als Beispiel dieses Modell nutzen zu können:
Code:
gpt-oss:20bDafür muss diese Version genutzt werden:
7. Die docker-compose_openwebui_ollama_subnet.yaml im Anhang Herunterladen. Da wird Ollama in Version: 0.11.4 genutzt
Download: Siehe Anhang.