Vier VPS bei drei deutschen Hostern, ein Proxmox-Cluster, ein GPU-Server on Demand — und ein Projekt namens ArchivBlick, das all das zusammenhält. Dieser Beitrag zeigt, wie eine Ein-Mann-Infrastruktur aussehen kann, die KI-Bilderkennung, Volltextsuche und Multi-Cloud-Backup unter einen Hut bringt.
Warum Multi-Provider?
Wer alles bei einem Hoster betreibt, hat ein Single Point of Failure. Nicht nur technisch — auch wirtschaftlich. Preisänderungen, AGB-Updates oder ein plötzliches Sunset eines Produkts können den ganzen Stack gefährden.
Meine Strategie: Dienste auf mehrere Hoster verteilen, so dass der Ausfall eines Providers nie das gesamte System lahmlegt. Das ist keine theoretische Übung — es ist eine bewusste Architektur-Entscheidung.
| Provider | Anzahl Server | Rolle |
|---|---|---|
| Prepaid-Host | 1 Dedicated (Proxmox) | Haupt-Hypervisor, hostet 4 VMs |
| IONOS | 1 Dedicated (Proxmox) | Zweiter Hypervisor, 1 VM |
| 1blu | 2 VPS | Standalone-Dienste, Docker-Webhosting |
Alle Server stehen in deutschen Rechenzentren. Das ist für mich keine Geschmacksfrage, sondern eine DSGVO-Anforderung — insbesondere weil ArchivBlick perspektivisch ein Produkt werden soll.
Architektur im Überblick
Die Server im Detail
Prepaid-Host
Proxmox VE mit vier aktiven VMs:
- Docker-VMs — Container-Workloads, Webhosting
- Security & Monitoring — Grafana, Prometheus, AIDE
- OPNsense — Firewall/Router-VM
Support: persönlich, technisch kompetent, schnell.
IONOS
Proxmox-Host mit einer VM für Docker-Workloads und Automatisierung.
Bewusste Trennung: Fällt der Haupt-Hypervisor aus, bleiben Agenten und Automatisierungen erreichbar.
Solide Performance, stabile Plattform.
1blu
Dienste, die bewusst unabhängig vom Proxmox-Stack laufen:
- VPS 1 — Docker-Webhosting, Uptime-Monitoring
- VPS 2 — Websites, weitere Dienste
Stabil seit Monaten, starkes Preis-Leistungs-Verhältnis.
ArchivBlick — Das Projekt hinter der Infrastruktur
ArchivBlick ist eine App für die Verwaltung und Durchsuchung großer Foto- und Video-Archive. Die Kerndaten:
- 224.000+ Fotos und Videos aus über 20 Jahren
- KI-generierte Bildbeschreibungen (Vision-LLMs, lokal verarbeitet)
- Hybride Suche — Volltext + semantische Vektorsuche kombiniert
- Filmstrip-Vorschau — 360°-Scrubbing für Videoarchive
- EXIF- und GPS-Daten — geographische Zuordnung und Filterung
Warum braucht ein Foto-Archiv diese Infrastruktur?
Die naive Antwort wäre: "Ein NAS reicht doch." Für die reine Speicherung stimmt das. Aber sobald man 224.000 Bilder durchsuchbar machen will — nicht nur nach Dateinamen, sondern nach Inhalt ("zeig mir alle Fotos mit Sonnenuntergang am Meer") — braucht man:
- GPU-Compute für die KI-Beschreibungen (einmalig, aber rechenintensiv)
- Vektor-Datenbank mit HNSW-Index für semantische Suche
- PostgreSQL für strukturierte Metadaten (EXIF, GPS, Tags)
- Einen Dev-Server (Mac mini im LAN) mit schnellem Zugriff auf Originaldateien
- Cloud-Infrastruktur für das spätere Produktions-Deployment
ArchivBlick wird perspektivisch als eigenständige App vertrieben. Die aktuelle Architektur ist deshalb so aufgebaut, dass der Wechsel von lokalem Backend auf Cloud-Hosting ohne App-Änderungen möglich ist — über ein abstrahiertes DataProvider-Protocol.
Trooper AI — GPU-Compute on Demand
Für die rechenintensiven KI-Jobs nutze ich keinen eigenen GPU-Server, sondern miete bei Bedarf einen Trooper AI Server:
GPU-Server Spezifikation
| Job | Modell | Datenmenge |
|---|---|---|
| Bildbeschreibungen | Qwen2.5-VL-32B | 69.000+ Bilder |
| Filmstrip-Analyse | Qwen2.5-VL-32B | 8.500 Video-Strips |
| Embedding-Generierung | BGE-M3 (1024 dim) | 224.000 Dokumente |
Der Workflow ist batch-orientiert: GPU-Server hochfahren, alle Jobs abarbeiten, Ergebnisse in die PostgreSQL-Datenbank importieren, Server herunterfahren. Kein dauerhafter GPU-Betrieb — das wäre bei den aktuellen Preisen wirtschaftlich unsinnig.
Das Netzwerk: Tailscale als Overlay
Alle Server — egal ob Proxmox-Host, VPS, Mac mini oder GPU-Server — sind über Tailscale verbunden. Das ist ein WireGuard-basiertes Mesh-VPN mit ein paar entscheidenden Vorteilen:
- Zero-Config: Neuen Server hinzufügen =
tailscale upund fertig - NAT-Traversal: Funktioniert auch hinter CG-NAT (relevant bei Heimnetz-Geräten)
- ACLs: Fein-granulare Zugriffssteuerung, welcher Node mit welchem reden darf
- MagicDNS: Server sind per Hostname erreichbar, nicht per IP
In der Praxis heißt das: Ich kann vom MacBook aus auf den Mac mini im Heimnetz, den GPU-Server bei Trooper und alle VPS zugreifen — als wären sie im selben LAN. Ohne VPN-Gateway, ohne Port-Forwarding, ohne exposed Services.
Backup-Strategie: restic + Multi-Cloud
Backups laufen über restic mit Verschlüsselung und Deduplizierung:
- Backup-Ziel: Verschlüsselter SharePoint-Speicher via rclone
- Abdeckung: 5 von 6 Servern produktiv gesichert
- Gesamtvolumen: ~102 GiB (dedupliziert)
- Rotation: Automatische Snapshot-Bereinigung nach definierten Regeln
Zusätzlich gibt es für besonders kritische Daten eine zfec-basierte Erasure-Coding-Pipeline, die Daten auf mehrere Cloud-Speicher verteilt. Selbst wenn zwei von fünf Speicherorten gleichzeitig ausfallen, lässt sich alles rekonstruieren.
Monitoring & Observability
Das Monitoring ist mehrstufig:
| Tool | Zweck | Standort |
|---|---|---|
| Grafana | Dashboards, Visualisierung aller Metriken | Prepaid-Host |
| Prometheus | Metriken-Sammlung, Alerting | Prepaid-Host |
| Uptime-Kuma | Erreichbarkeits-Monitoring aller Dienste | 1blu VPS |
| cAdvisor | Container-Metriken (CPU, RAM, I/O) | Alle Docker-Hosts |
| AIDE | File-Integrity-Monitoring | Security-VM |
Wichtig: Das Monitoring läuft bewusst nicht auf demselben Host wie die überwachten Dienste. Uptime-Kuma bei 1blu überwacht die Proxmox-Server bei Prepaid-Host und IONOS — wenn einer ausfällt, merkt es das Monitoring trotzdem.
Was ich gelernt habe
Ein paar Erkenntnisse aus zwei Jahren Betrieb einer Multi-Provider-Infrastruktur:
Multi-Provider ist kein Overhead, sondern Versicherung.
Der Mehraufwand für die Verwaltung mehrerer Hoster ist minimal, wenn Tailscale und Skripte die Konfiguration vereinheitlichen. Der Gewinn an Resilienz ist dagegen erheblich.
GPU-Compute on Demand schlägt eigene Hardware.
Für Batch-Jobs wie KI-Bildbeschreibungen lohnt sich kein dauerhafter GPU-Server. On-Demand-Miete bei Anbietern wie Trooper AI ist flexibler und kosteneffizienter — solange man die Jobs bündelt.
Proxmox ist für kleine Teams unterschätzt.
Viele greifen direkt zu Kubernetes. Für ein Ein-Mann-Setup ist Proxmox mit Docker-VMs die pragmatischere Wahl — volle Kontrolle, einfaches Backup (Snapshots), kein Cluster-Overhead.
Monitoring gehört auf einen anderen Provider als die Produktion.
Wenn der Haupt-Hypervisor Probleme hat, muss das Monitoring trotzdem funktionieren. Deshalb: Uptime-Checks bei 1blu, Produktiv-Server bei Prepaid-Host — bewusst getrennt.
KI-Verarbeitung lokal statt Cloud-API spart massiv.
Bei 224.000 Bildern hätten Cloud-Vision-APIs vierstellige Kosten verursacht. Ein gemieteter GPU-Server für ein paar Tage kostet einen Bruchteil — und die Daten bleiben unter meiner Kontrolle.
Stack-Übersicht
| Kategorie | Technologie |
|---|---|
| Virtualisierung | Proxmox VE |
| Container | Docker, Docker Compose |
| Datenbank | PostgreSQL + pgvector |
| Suche | Hybride Suche (FTS + Vektor, HNSW) |
| KI-Modelle | Qwen2.5-VL-32B, BGE-M3, Ollama |
| Backup | restic, rclone, zfec |
| VPN/Netzwerk | Tailscale (WireGuard) |
| Monitoring | Grafana, Prometheus, Uptime-Kuma, cAdvisor |
| Security | AIDE, OPNsense |
| Automatisierung | Claude Code, Workflow-Engines |
Transparenzhinweis
Alle in diesem Beitrag genannten Dienste — Server, GPU-Compute, Software — bezahle ich vollständig selbst. Es handelt sich weder um gesponserte Inhalte noch um Affiliate-Partnerschaften. Die genannten Anbieter wissen nicht, dass dieser Artikel erscheint, und hatten keinen Einfluss auf den Inhalt.
Ich nenne die Provider beim Namen, weil ein Erfahrungsbericht ohne konkrete Angaben wertlos wäre. Meine Erfahrungen mit allen drei Hostern sind durchweg positiv — ich betreibe diese Server teilweise seit über zwei Jahren und hatte nie einen Grund, den Anbieter zu wechseln. Besonders die Kombination aus fairen Preisen, deutschen Rechenzentren und erreichbarem Support hat sich für mein Setup bewährt.
Fragen, Feedback oder ähnliche Setups? Ich freue mich über den Austausch.