localai
Inhaltsverzeichnis
Lokale KI auf Basis von Ollama + OpenWebUI auf einem Mac Mini
Aktivierung der Fernsteuerung
Systemeinstellungen ⇒ Allgemein ⇒ Teilen ⇒ Bildschirmfreigabe ⇒ Aktivieren
Info-Button ⇒ VNC-Viewer können den Bildschrim mit Passwort steuern ⇒ Aktivieren
Info-Button ⇒ Passwort setzen
Info-Button ⇒ Zugriff erlauben für ⇒ Benutzer hinzufügen
Ollama Installieren
Ollama Herunterladen: Ollama for Mac
Prüfe Ollama Installation ⇒ Öffne Terminal ⇒ Gebe ein
ollama
Installiere llama Model 3:8b ⇒ Öffne Terminal ⇒ Gebe ein
ollama run llama3:8b
Docker Installieren
Docker Herunterladen: Docker for Mac
Open Web UI Installieren
Open Web UI Docker Befehle: Github
Da Ollama bereits installiert ist, öffne Terminal und gebe ein:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Starte Open Web UI
Open Web UI läuft auf Port 3000, entweder localhost oder von außen über die IP-Adresse
localai.txt · Zuletzt geändert: von kemalturker
