Website-Suche

So installieren Sie DeepSeek lokal unter Ubuntu 24.04


Das lokale Ausführen großer Sprachmodelle wie DeepSeek auf Ihrem Computer ist eine leistungsstarke Möglichkeit, KI-Funktionen zu erkunden, ohne auf Cloud-Dienste angewiesen zu sein.

In diesem Leitfaden führen wir Sie durch die Installation von DeepSeek mit Ollama auf Ubuntu 24.04 und die Einrichtung einer Web-Benutzeroberfläche für ein interaktives und benutzerfreundliches Erlebnis.

Was ist DeepSeek und Ollama?

  • DeepSeek: Ein fortschrittliches KI-Modell, das für die Verarbeitung natürlicher Sprache wie das Beantworten von Fragen, das Generieren von Text und mehr entwickelt wurde.
  • Ollama: Eine Plattform, die das lokale Ausführen großer Sprachmodelle vereinfacht, indem sie Tools zum Verwalten und Interagieren mit Modellen wie DeepSeek bereitstellt.
  • Web-UI: Eine grafische Oberfläche, die es Ihnen ermöglicht, mit DeepSeek über Ihren Browser zu interagieren und es zugänglicher und benutzerfreundlicher zu machen.

Voraussetzungen

Bevor wir beginnen, stellen Sie sicher, dass Sie über Folgendes verfügen:

  • Ubuntu 24.04 auf Ihrem Computer installiert.
  • Eine stabile Internetverbindung.
  • Mindestens 8 GB RAM (16 GB oder mehr werden für eine reibungslosere Leistung empfohlen).
  • Grundsätzliche Vertrautheit mit dem Terminal.

Schritt 1: Installieren von Python und Git

Bevor Sie etwas installieren, ist es eine gute Idee, Ihr System zu aktualisieren, um sicherzustellen, dass alle vorhandenen Pakete auf dem neuesten Stand sind.

sudo apt update && sudo apt upgrade -y

Ubuntu wird wahrscheinlich mit vorinstalliertem Python geliefert, aber es ist wichtig, sicherzustellen, dass Sie die richtige Version (Python 3.8 oder höher) haben.

sudo apt install python3
python3 --version

pip ist der Paketmanager für Python und wird benötigt, um Abhängigkeiten für DeepSeek und Ollama zu installieren.

sudo apt install python3-pip
pip3 --version

Git ist für das Klonen von Repositorys von GitHub unerlässlich.

sudo apt install git
git --version

Schritt 2: Installieren Sie Ollama für DeepSeek

Nachdem Python und Git installiert sind, können Sie Ollama installieren, um DeepSeek zu verwalten.

curl -fsSL https://ollama.com/install.sh | sh
ollama --version

Starten Sie als Nächstes Ollama und aktivieren Sie es, um automatisch zu starten, wenn Ihr System hochfährt.

sudo systemctl start ollama
sudo systemctl enable ollama

Nachdem Ollama installiert ist, können wir mit der Installation von DeepSeek fortfahren.

Schritt 3: Laden Sie das DeepSeek-Modell herunter und führen Sie es aus

Nachdem Ollama installiert ist, können Sie das DeepSeek-Modell herunterladen.

ollama run deepseek-r1:7b

Dies kann je nach Internetgeschwindigkeit einige Minuten dauern, da das Modell mehrere Gigabyte groß ist.

Sobald der Download abgeschlossen ist, können Sie überprüfen, ob das Modell verfügbar ist, indem Sie Folgendes ausführen:

ollama list

Deepseek sollte als eines der verfügbaren Modelle aufgeführt sein.

Schritt 4: Ausführen von DeepSeek in einer Web-Benutzeroberfläche

Während Ollama es Ihnen ermöglicht, mit DeepSeek über die Befehlszeile zu interagieren, bevorzugen Sie vielleicht eine benutzerfreundlichere Weboberfläche. Zu diesem Zweck verwenden wir die Ollama-Webbenutzeroberfläche, eine einfache webbasierte Schnittstelle für die Interaktion mit Ollama-Modellen.

Erstellen Sie zunächst eine virtuelle Umgebung, die Ihre Python-Abhängigkeiten von der systemweiten Python-Installation isoliert.

sudo apt install python3-venv
python3 -m venv ~/open-webui-venv
source ~/open-webui-venv/bin/activate

Nachdem Ihre virtuelle Umgebung aktiv ist, können Sie Open WebUI mit pip installieren.

pip install open-webui

Starten Sie nach der Installation den Server mit.

open-webui serve

Öffnen Sie Ihren Webbrowser und navigieren Sie zu http://localhost:8080 – Sie sollten die Benutzeroberfläche der Ollama-Webbenutzeroberfläche sehen.

Wählen Sie in der Web-Benutzeroberfläche das Deepseek-Modell aus dem Dropdown-Menü aus und beginnen Sie mit der Interaktion. Sie können Fragen stellen, Text generieren oder andere Aufgaben ausführen, die von DeepSeek unterstützt werden.

Sie sollten jetzt eine Chat-Oberfläche sehen, in der Sie mit DeepSeek interagieren können, genau wie ChatGPT.

Ausführen von DeepSeek auf Cloud-Plattformen

Wenn Sie es vorziehen, DeepSeek in der Cloud auszuführen, um eine bessere Skalierbarkeit, Leistung oder Benutzerfreundlichkeit zu erzielen, finden Sie hier einige hervorragende Cloud-Lösungen:

  • Linode – Es bietet erschwingliches und leistungsstarkes Cloud-Hosting, bei dem Sie eine Ubuntu-Instanz bereitstellen und DeepSeek mit Ollama installieren können, um ein nahtloses Erlebnis zu gewährleisten.
  • Google Cloud Platform (GCP) – Es bietet leistungsstarke virtuelle Maschinen (VMs) mit GPU-Unterstützung und ist damit ideal für die Ausführung großer Sprachmodelle wie DeepSeek.
Schlussfolgerung

Sie haben Ollama und DeepSeek erfolgreich auf Ubuntu 24.04 installiert. Sie können jetzt DeepSeek im Terminal ausführen oder eine Web-Benutzeroberfläche verwenden, um eine bessere Erfahrung zu erzielen.

Verwandte Artikel: