private AI · on-prem · voice & ops

Deine KI bleibt bei dir.
Nicht in irgendeiner Cloud.

shelly.network ist eine private, selbst gehostete AI-Plattform für Voice-Agents, Knowledge-Search und Ops-Automationen — gebaut für echte Infrastruktur.

On-Prem · keine Datenabgabe
Voice · SIP/Telefonie-fähig
Search · Vektor-DB + Docs
API · OpenAI-kompatibel
⚙️ für ISP/Netzwerk-Ops 🔒 privacy-first 🧠 “Jarvis-Style”, aber seriös

Mini-Demo (wie’s sich anfühlt)

Ein Beispiel-Flow: Voice → Intent → Knowledge → Aktion (mit Guardrails).

Hinweis: Endpoint/Model-Name nur Beispiel — wird an euer Setup angepasst.

Wichtig: “Shelly” ist hier ein AI-Alias — keine Verbindung zu Shelly-IoT-Produkten.

Was shelly.network liefert

Bausteine, die du in Produktion wirklich nutzen kannst (und die dich nicht bei der ersten Störung ghosten).

Voice-Agent (SIP/Telefon)

Telefon-Assistent für Hotlines, NOC, interne Routing-Fragen. Intent-Erkennung, definierte Aktionen, Logging.

Knowledge-Search

Docs, Runbooks, Tickets, Config-Snippets: semantische Suche via Embeddings + Vektor-DB, mit Quellen.

Ops-Automationen

Guarded Actions: “Nur wenn Policy passt”. Playbooks für typische Cases (z.B. PPPoE, DNS, Reverse Proxy).

On-Prem & Datenschutz

Keine Kundendaten in der Cloud. Ideal, wenn du’s “in deiner eigenen Welt” halten musst.

OpenAI-kompatible API

Drop-in Integration in Tools/Workflows. Bestehende Clients können oft unverändert bleiben.

Beobachtbar

Metrics/Logs/Tracing: du siehst Token-Load, Latenzen, Errors — und wo’s hakt.

Typische Use-Cases

  • “Wie war das nochmal mit MSS-Clamp bei PPPoE über MPLS?”
  • Ticket-Triaging: Voice oder Text → Kategorie → Antwortvorschlag → Next Steps
  • Runbook-Assistent: Schritt-für-Schritt für Störungen (DNS, BGP, Reverse Proxy, Certs)
  • Mehrsprachige Ansagen / Übersetzung (privacy-safe, on-prem)

Was wir nicht machen

Keine “magische Allwissens-Cloud”, kein Vendor-Lock-in, keine Daten-Sauger. Und: keine Aktionen ohne Guardrails — “Computer says yes” ist lustig, aber nicht im NOC.

Stack (Beispiel)

Ein möglicher Aufbau — modular, austauschbar, on-prem.

LLM: llama.cpp / vLLM UI: OpenWebUI Search: SearXNG Vector DB: Qdrant Metrics: Grafana + Influx/Prom Voice: Asterisk / SIP Proxy: Nginx

Bereit für dein Setup

Du kannst klein starten (1 Host) oder skalieren (mehrere Modelle/Ports/GPU-Nodes). Wichtig ist nur: klare Policies + saubere Observability.

Kontakt / Demo

Schreib uns kurz: Use-Case, gewünschte Umgebung (on-prem / air-gapped), Schnittstellen (SIP/API), Datenquellen (Docs/Configs).

E-Mail: hello@shelly.network PGP: (optional) NOC: (optional)

Impressum/Datenschutz kannst du hier später sauber verlinken (Footer).