Interceptor Forum

Normale Version: OpenWebUI mit Ollama
Du siehst gerade eine vereinfachte Darstellung unserer Inhalte. Normale Ansicht mit richtiger Formatierung.
open-webui mit ollama – Meine Hauptaufgabe besteht darin, Daten nach bestimmten Regeln zu verarbeiten und durch sorgfältige Analyse der Eingabeformate und Anwendung geeigneter Algorithmen die Genauigkeit sicherzustellen.


1. Die docker-compose_openwebui_ollama.yaml im Anhang Herunterladen.

2. Neues Docker-Projekt in UGOS Erstellen und yaml Inhalt einfügen oder als Image Installieren ( letzteres Ungetestet)

3. Wenn nötig drei Variablen zum anpassen.


Code:
#    restart: always
#    mem_limit: 50gb
#    cpus: 4


4. Bereitstellen


5. Website öffnen:
Code:
  http://192.168.1.200:28080

6. Nach der Einrichtung vom Admin Benutzer oben rechts auf Benutzer Icon Klicken -> Administration -> jetzt tauchen links Tabs auf und dort auf -> Einstellungen -> im Linken Menübaum auf Modelle -> rechts auf -> Download Symbol -> da drin unter "Modelle von Ollama beziehen" auf die Website gehen oder als Beispiel "gpt-oss:20b" eingeben und rechts daneben auf Download Symbol.


Es gehen nicht die Größten Modelle aber die Kleineren, als Beispiel deepseek-r1:1.5b

Ich habe es chatgpt in meinem Beispiel gennant (doppelt im Kommentar Anklicken, Kopieren und als Projektname verwenden).  

Code:
# open-webui mit ollama = chatgpt


Update:

Bei der Kombination aus OpenWebUI+Ollama ist letzteres leider zu alt um als Beispiel dieses Modell nutzen zu können:

Code:
gpt-oss:20b


Dafür muss diese Version genutzt werden:

7. Die docker-compose_openwebui_ollama_subnet.yaml im Anhang Herunterladen. Da wird Ollama in Version: 0.11.4 genutzt



Download: Siehe Anhang.
Update von docker-compose_openwebui_ollama_subnet.yaml auf


open-webui:0.6.36

ollama:0.12.10