Inhaltsverzeichnis

Lokale KI auf Basis von Ollama + OpenWebUI auf einem Mac Mini

Aktivierung der Fernsteuerung

Systemeinstellungen ⇒ Allgemein ⇒ Teilen ⇒ Bildschirmfreigabe ⇒ Aktivieren

Info-Button ⇒ VNC-Viewer können den Bildschrim mit Passwort steuern ⇒ Aktivieren

Info-Button ⇒ Passwort setzen

Info-Button ⇒ Zugriff erlauben für ⇒ Benutzer hinzufügen

Ollama Installieren

Ollama Herunterladen: Ollama for Mac

Prüfe Ollama Installation ⇒ Öffne Terminal ⇒ Gebe ein

ollama

Installiere llama Model 3:8b ⇒ Öffne Terminal ⇒ Gebe ein

ollama run llama3:8b

Docker Installieren

Docker Herunterladen: Docker for Mac

Open Web UI Installieren

Open Web UI Docker Befehle: Github

Da Ollama bereits installiert ist, öffne Terminal und gebe ein:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Starte Open Web UI

Open Web UI läuft auf Port 3000, entweder localhost oder von außen über die IP-Adresse