In diesem Meetup beschäftigen wir uns mit der Nutzung lokaler Large Language Models (LLMs) auf dem eigenen Rechner. Dazu setzen wir Ollama als LLM-Backend ein und nutzen Gradio, um eine einfache Chat-UI bereitzustellen. Zusätzlich testen wir die Ollama API mit speziell geschriebenen Batch-Skripten, die verschiedene Interaktionen ermöglichen. Ziel ist es, eine Umgebung zu schaffen, in der wir interaktiv mit einem lokalen LLM kommunizieren können, ohne auf Cloud-Dienste angewiesen zu sein.
Damit das Projekt ausgeführt werden kann, benötigst du folgende Komponenten auf deinem System:
- 🐍 Python 3.8+ (am besten die neueste Version)
- 📦 Pip (Python-Paketmanager, kommt mit Python)
- 💻 Ollama (lokales LLM-Backend, kann hier installiert werden)
- 🌐 Internetverbindung (zum einmaligen Installieren der Abhängigkeiten)
- 📜 Windows CMD oder eine andere Shell, um die
.bat-Skripte auszuführen
📁 meetup-local-llms
├── 📁 slides
| ├── 250311_meetup_workshop_local_llms_ollama_msty.pdf
├── ollama-cmd.bat # Batch-Skript zum direkten Start von Ollama
├── ollama-api.bat # Batch-Skript zur Nutzung der Ollama API
├── ollama-chat.py # GradioUI-Chatbot-Skript für Ollama via API
├── start-ollama-chatui.bat # Batch-Skript zum Start der Gradio-UI
├── requirements.txt # Liste der benötigten Python-Pakete
├── README.md # Dokumentation
Falls Python noch nicht installiert ist, kannst du es hier herunterladen. Wie du Ollama und alles weitere installierst, findest du in 📁 slides.
Falls du das Projekt von GitHub holst:
git clone https://github.com/ScaDS/scads-ai-meetup-local-llms.git
cd scads-ai-meetup-local-llmsWie du Git installieren kannst findest du hier.
Doppelklicke auf ollama-cmd.bat, um eine Terminal-Sitzung mit Ollama zu starten.
Doppelklicke auf ollama-api.bat, um:
✅ Eine Eingabeaufforderung zur API-Nutzung zu öffnen
✅ Eine Frage an die Ollama API und ein LLM zu senden
Doppelklicke auf start-ollama-chatui.bat, um:
✅ Die benötigten Abhängigkeiten zu installieren
✅ Den Gradio-Chatbot zu starten
Alternativ kannst du alles manuell ausführen:
pip install -r requirements.txt
python chatbot.pySobald Gradio läuft, kannst du den Chatbot in deinem Browser öffnen:
http://127.0.0.1:7860
Falls der Port bereits belegt ist, kannst du Gradio mit einem anderen Port starten:
python chatbot.py --server-port 7861- ⚡ Falls
start-ollama-chatui.batnicht funktioniert, stelle sicher, dass Python korrekt installiert ist. - 🔄 Falls du die Abhängigkeiten erneut installieren möchtest, lösche einfach die
venv-Umgebung (falls vorhanden) und startestart-ollama-chatui.baterneut. - 📢 Falls du nur mit der API arbeiten willst, kannst du
ollama-api.batnutzen, um manuell Anfragen zu senden.