Instructions to use Keyven/german-text-3.1 with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- llama-cpp-python
How to use Keyven/german-text-3.1 with llama-cpp-python:
# !pip install llama-cpp-python from llama_cpp import Llama llm = Llama.from_pretrained( repo_id="Keyven/german-text-3.1", filename="german-text-3.1-2B-F16.gguf", )
llm.create_chat_completion( messages = [ { "role": "user", "content": "What is the capital of France?" } ] ) - Notebooks
- Google Colab
- Kaggle
- Local Apps
- llama.cpp
How to use Keyven/german-text-3.1 with llama.cpp:
Install from brew
brew install llama.cpp # Start a local OpenAI-compatible server with a web UI: llama-server -hf Keyven/german-text-3.1:Q4_K_M # Run inference directly in the terminal: llama-cli -hf Keyven/german-text-3.1:Q4_K_M
Install from WinGet (Windows)
winget install llama.cpp # Start a local OpenAI-compatible server with a web UI: llama-server -hf Keyven/german-text-3.1:Q4_K_M # Run inference directly in the terminal: llama-cli -hf Keyven/german-text-3.1:Q4_K_M
Use pre-built binary
# Download pre-built binary from: # https://github.com/ggerganov/llama.cpp/releases # Start a local OpenAI-compatible server with a web UI: ./llama-server -hf Keyven/german-text-3.1:Q4_K_M # Run inference directly in the terminal: ./llama-cli -hf Keyven/german-text-3.1:Q4_K_M
Build from source code
git clone https://github.com/ggerganov/llama.cpp.git cd llama.cpp cmake -B build cmake --build build -j --target llama-server llama-cli # Start a local OpenAI-compatible server with a web UI: ./build/bin/llama-server -hf Keyven/german-text-3.1:Q4_K_M # Run inference directly in the terminal: ./build/bin/llama-cli -hf Keyven/german-text-3.1:Q4_K_M
Use Docker
docker model run hf.co/Keyven/german-text-3.1:Q4_K_M
- LM Studio
- Jan
- vLLM
How to use Keyven/german-text-3.1 with vLLM:
Install from pip and serve model
# Install vLLM from pip: pip install vllm # Start the vLLM server: vllm serve "Keyven/german-text-3.1" # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:8000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "Keyven/german-text-3.1", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker
docker model run hf.co/Keyven/german-text-3.1:Q4_K_M
- Ollama
How to use Keyven/german-text-3.1 with Ollama:
ollama run hf.co/Keyven/german-text-3.1:Q4_K_M
- Unsloth Studio new
How to use Keyven/german-text-3.1 with Unsloth Studio:
Install Unsloth Studio (macOS, Linux, WSL)
curl -fsSL https://unsloth.ai/install.sh | sh # Run unsloth studio unsloth studio -H 0.0.0.0 -p 8888 # Then open http://localhost:8888 in your browser # Search for Keyven/german-text-3.1 to start chatting
Install Unsloth Studio (Windows)
irm https://unsloth.ai/install.ps1 | iex # Run unsloth studio unsloth studio -H 0.0.0.0 -p 8888 # Then open http://localhost:8888 in your browser # Search for Keyven/german-text-3.1 to start chatting
Using HuggingFace Spaces for Unsloth
# No setup required # Open https://huggingface.co/spaces/unsloth/studio in your browser # Search for Keyven/german-text-3.1 to start chatting
- Docker Model Runner
How to use Keyven/german-text-3.1 with Docker Model Runner:
docker model run hf.co/Keyven/german-text-3.1:Q4_K_M
- Lemonade
How to use Keyven/german-text-3.1 with Lemonade:
Pull the model
# Download Lemonade from https://lemonade-server.ai/ lemonade pull Keyven/german-text-3.1:Q4_K_M
Run and chat with the model
lemonade run user.german-text-3.1-Q4_K_M
List all available models
lemonade list
llm.create_chat_completion(
messages = [
{
"role": "user",
"content": "What is the capital of France?"
}
]
)🇩🇪 German-Text-3.1
Der deutsche Text-Assistent von Keyvan.ai — Teil der German-OCR-3 Kollektion.
ollama run Keyvan/german-text-3.1
Die Geschichte
German-OCR-3 begann als kleine Idee: ein Modell, das deutsche Geschäftsdokumente wirklich versteht — Rechnungen, Briefe, Bescheide, Verträge. Nicht „auch deutsch", sondern auf deutsche Sprache und deutsche Bürokratie spezialisiert.
Die 3.1-Generation ist die feinabgestimmte, engineered + optimierte Version dieser Kollektion. Zwei spezialisierte Modelle für zwei Aufgaben:
| Modell | Rolle |
|---|---|
| 🇩🇪 German-Text-3.1 (du bist hier) | Text-Assistent für Übersetzung, Zusammenfassung, Analyse, Umschreibung, Chat |
| 👁 German-OCR-3.1 | Vision-OCR — extrahiert deutsche Geschäftsdokumente strukturiert als JSON |
Jedes Modell wurde für seine Aufgabe brand-konsistent konfiguriert, mit deutscher Identität, sauberem Output ohne Thinking-Leak, und Multi-Quant-Distribution.
✨ Was kann das Modell?
| Aufgabe | Beispiel |
|---|---|
| 🌍 Übersetzung DE↔EN multilingual | „Bitte schicken Sie mir die Rechnung bis Freitag." → "Please send me the invoice by Friday." |
| 📝 Zusammenfassung | Mehrseitiger Bescheid → 2 Sätze, Zahlen + Namen exakt |
| ✍️ Umschreibung | Informell → formelles Geschäftsdeutsch |
| 🔍 Analyse | Hauptaussagen, Risiken, Empfehlungen |
| 💬 Chat | Q&A über deutsche Geschäftssprache, Verwaltung, Dokumente |
| 🛠 Tool-Use | Function-Calling kompatibel |
Stark im deutschen Geschäftskontext: Verträge, Behördenschreiben, Rechnungen, Mahnungen, Lieferscheine, Steuerbescheide.
🚀 Quick Start
Ollama (1 Zeile)
ollama run Keyvan/german-text-3.1
>>> Übersetze ins Englische: Bitte schicken Sie mir die Rechnung bis Freitag.
Please send me the invoice by Friday.
API:
curl http://localhost:11434/api/chat -d '{
"model": "Keyvan/german-text-3.1",
"messages": [{"role":"user","content":"Fasse zusammen: ..."}],
"think": false
}'
llama-server (HF GGUF)
hf download Keyven/german-text-3.1 german-text-3.1-4B-Q8_0.gguf
llama-server -m german-text-3.1-4B-Q8_0.gguf --port 8080 -ngl 99
📦 Files (auf HuggingFace)
4B Variant — Empfohlen für Qualität
| File | Größe | Use case |
|---|---|---|
german-text-3.1-4B-Q4_K_M.gguf |
2.6 GB | Compact GPU |
german-text-3.1-4B-Q5_K_M.gguf |
2.9 GB | Balanced |
german-text-3.1-4B-Q6_K.gguf |
3.3 GB | Near-lossless |
german-text-3.1-4B-Q8_0.gguf |
4.3 GB | ⭐ Recommended |
german-text-3.1-4B-F16.gguf |
8.0 GB | Full precision |
2B Variant — Edge / Low-RAM
| File | Größe | Use case |
|---|---|---|
german-text-3.1-2B-Q4_K_M.gguf |
1.2 GB | Edge, ~2 GB RAM |
german-text-3.1-2B-Q8_0.gguf |
1.9 GB | Schneller |
german-text-3.1-2B-F16.gguf |
3.6 GB | Full precision 2B |
🛠 Hardware
| Variant | RAM (CPU) | VRAM (GPU) |
|---|---|---|
| 2B Q4 | 2 GB | 2 GB |
| 4B Q4 | 4 GB | 4 GB |
| 4B Q8 | 6 GB | 6 GB |
| 4B F16 | 10 GB | 10 GB |
CPU-Inference möglich, GPU empfohlen. Context: 32 768 Tokens.
🤝 German-OCR Familie
| Was | Wo | |
|---|---|---|
| 🇩🇪 German-Text-3.1 | Text-Assistent (du bist hier) | ollama.com · HF |
| 👁 German-OCR-3.1 | Vision OCR (DE-Rechnungen → JSON) | ollama.com · HF |
| ☁️ German-OCR Cloud API | Managed OCR Service | german-ocr.de |
| 📝 German-OCR for Word | Office Add-in | office.german-ocr.de |
📜 License & Credits
Apache License 2.0 — kommerzielle Nutzung mit Attribution erlaubt.
NOTICE: Aufgebaut auf Qwen3.5 von Alibaba Cloud. Die German-OCR-3.1-Kollektion ist eine in Deutschland engineered + optimierte Distribution für deutsche Geschäftsdokumente. Architecture credit: Qwen Team.
Build mit ❤️ in 🇩🇪 von Keyvan Hardani.
- Downloads last month
- 333
4-bit
5-bit
6-bit
8-bit
16-bit
# !pip install llama-cpp-python from llama_cpp import Llama llm = Llama.from_pretrained( repo_id="Keyven/german-text-3.1", filename="", )