100% Offline KI-Workstation

Maximale KI-Power.
Null Cloud-Risiko.

Die professionelle LLM-Umgebung für macOS und Windows. Entwickelt für Kanzleien, das Gesundheitswesen und den Mittelstand. Erleben Sie KI auf ChatGPT-Niveau direkt auf Ihrer Hardware – absolut DSGVO-konform.

macOS Apple Silicon • 2026.2.1
~472 MB (Standalone Installer)
Windows Windows x64 • 2026.2.1
~2.9 GB (Inkl. CUDA & Torch. Zero-Setup!)
✓ Keine Cloud ✓ Kein Abo-Zwang ✓ Lokales RAG
EIDOSDynamics Interface
Engine

Hybrider LLM Chat

Native LlamaSharp-Inference. Nahtlose Whisper STT/TTS-Integration. Unterstützt gigantische GGUF-Modelle bis 70B+ lokal.

Wissen

SQLite Vektor-DB

Lokale ONNX-basierte Embeddings. Intelligentes Dokumenten-RAG mit sauberen Quellenangaben (Citations) direkt aus Ihren PDFs.

Automatisierung

Workflow Builder

Visuelle Pipelines. Native MCP-Nodes mit granularen Rechten. Inklusive AD/LDAP, Webscraper und IMAP/SMTP für autonome Agenten.

Konnektivität

Watson API Server

Ein OpenAI-kompatibler lokaler Endpunkt. Lassen Sie Ihr Team via Browser sicher auf die KI im Firmennetzwerk zugreifen.

Watson API User Management
Analyst_North_Office
Access: Local GGUF Only
Unlimited
Local Tokens
External_Partner_API
Access: Hybrid (Cloud AI + Cloud VektorDB)
42.850 / 50.000
Monthly Token Limit
Management & Compliance

Watson Gateway:
Volle Kostenkontrolle.

Der Watson API Server ist das Herzstück Ihrer hybriden KI-Infrastruktur. Erstmals vereinen Sie die Power von Cloud-Diensten mit der Sicherheit lokaler Kontrolle – inklusive einer granularen Budgetüberwachung, die Ihre Kreditkarte schützt.

Token-basierte Kostenbremse

Setzen Sie harte monatliche Token-Limits pro User oder API-Key. Ein fehlerhaftes Skript oder eine Endlosschleife in der Cloud wird sofort gestoppt, bevor Kosten entstehen.

Hybrides RAG & Cloud VectorDBs

Nutzen Sie Cloud-Vektordatenbanken (wie Pinecone oder Qdrant) direkt über den Watson Server. Alle Verbindungen und Keys werden AES-256 verschlüsselt gespeichert.

Granulare Zugriffskontrolle

Bestimmen Sie für jeden API-Nutzer individuell, ob er auf lokale Modelle, Cloud-Provider oder spezifische interne Knowledge-Bases zugreifen darf.

Pro & Enterprise

Echter Headless Mode.
100% Automatisierbar.

Vergessen Sie pseudo-versteckte Benutzeroberflächen, die im Hintergrund wertvollen Arbeitsspeicher blockieren. EIDOSDynamics läuft auf Wunsch als purer, ressourcenschonender Hintergrundprozess (CLI). Perfekt für Windows Services, Cronjobs und MLOps-Pipelines.

  • Dämonisierte Agenten: Starten Sie Workflows und den Watson API Server komplett ohne UI.
  • Skriptbares Fine-Tuning: Automatisieren Sie LoRA-Trainings und GGUF-Konvertierungen per Kommandozeile.
  • Nächtliche RAG-Updates: Lassen Sie Aktenordner über Nacht per Batch-Skript vollautomatisch in Vector-Collections übersetzen.
CLI Dokumentation lesen
admin@eidosdynamics-server: ~
$ EIDOSDynamics --build-dataset --input-dir "C:\Contracts" --qa-ratio 20
>>> Starting Headless Dataset Generation...
>>> Dataset successfully generated at: \output\training.jsonl
$ EIDOSDynamics --finetune --base-model "Llama-3-8B" --epochs 3
>>> Starting Headless LoRA Fine-Tuning...
Starting LoRA Finetuning on GPU 0...
Epoch 1/3: ━━━━━━━━━━━━━━━━━━━━━━━ 100%
>>> [SUCCESS] LoRA Fine-Tuning completed!
$ EIDOSDynamics --daemon --run-workflow "Legal_RAG_Nightly"
>>> Workflow Automation Daemon is running in Headless Mode.
>>> Executing Workflow Legal_RAG_Nightly...

Sicherheit durch Architektur

Das Cloud-Risiko

  • ✕ Datenlecks durch Drittanbieter-APIs
  • ✕ Server außerhalb der DSGVO-Jurisdiktion
  • ✕ Mandantendaten als Modell-Trainingsmaterial
  • ✕ Unkalkulierbare monatliche API-Kosten

Die EIDOSDynamics Lösung

  • ✓ 100% lokale Ausführung (LlamaSharp)
  • ✓ Absolut keine Daten-Telemetrie
  • ✓ Air-Gap fähig (funktioniert ohne Internet)
  • ✓ Einmal kaufen, lebenslang nutzen
EIDOSDynamics Hybrid Architektur

Lokal geschützt.
Global vernetzt (wenn Sie wollen).

Mit der neuen Secure Hybrid Engine müssen Sie sich nicht mehr zwischen Datenschutz und KI-Power entscheiden. Nutzen Sie lokale GGUF-Modelle für streng vertrauliche Akten und schalten Sie globale Cloud-KIs für allgemeine Aufgaben hinzu – abgesichert durch unsere unüberwindbare HITL-Firewall.

Air-Gapped Default

Lokale GGUF Modelle

Ihr Standard-Modus. Modelle wie Llama-3 oder Mistral laufen zu 100% im Arbeitsspeicher Ihrer Hardware. Keine APIs, kein Internet, absolute Datensouveränität.

  • Perfekt für: Verträge, Patientenakten, Bilanzen.
  • RAG-Suche in der lokalen SQLite Vektordatenbank.
  • Garantierte DSGVO-Konformität (§ 203 StGB safe).
Optional Multi-Cloud

Cloud AI Integration

Hinterlegen Sie optional Ihre API-Keys für Provider wie OpenAI oder Anthropic. Wählen Sie jederzeit im Chat oder Workflow-Builder per Dropdown, welches Modell die aktuelle Aufgabe übernehmen soll.

Die HITL-Firewall greift ein

Wenn eine Cloud-KI in einem autonomen Workflow versucht, über unsere MCP-Tools lokale Daten (Active Directory, SQL, Dateien) auszulesen, blockiert EIDOSDynamics die Aktion sofort. Die Ausführung wird eingefroren und erfordert zwingend Ihre manuelle Freigabe im Approval Dashboard (Human-in-the-loop).

Kostenloses Whitepaper

Der KI-Compliance-Leitfaden 2026

Erfahren Sie, warum Cloud-LLMs (wie ChatGPT) für Kanzleien und Praxen ein Haftungsrisiko darstellen und wie Sie autonome KI-Agenten DSGVO-konform und 100% lokal einsetzen. Inklusive Praxisbeispiel und Checkliste.

PDF herunterladen Sofort-Download (Ohne Registrierung)

Hardware Empfehlungen

 Apple Silicon (M-Serie)

EIDOSDynamics nutzt Apple Metal-Beschleunigung. Da GPU und CPU denselben Arbeitsspeicher (Unified Memory) teilen, ist RAM der Schlüssel zur Leistung.

  • 8GB - 16GB (Einstieg) Perfekt für schnelle Modelle (Phi-3, Mistral 8B). Ideal für Chats und flinkes Dokumenten-Scannen.
  • 32GB - 64GB (Professional) Führen Sie komplexe 30B+ Modelle aus und verarbeiten Sie massive Dokumenten-Mengen in der Vektor-DB.

⊞ Windows x64 Workstations

Native Unterstützung für NVIDIA CUDA und Microsoft DirectML. VRAM (Grafikspeicher) ist hier Ihre wichtigste Ressource.

  • 8GB VRAM (Einstieg) Hervorragend für schnelle 8B Modelle. Der normale System-RAM übernimmt die Vektor-DB und Benutzeroberfläche.
  • 16GB - 24GB VRAM (Professional) Ideal für komplexe Workflows, tiefe Kontext-Fenster und das Hosting des Watson API Servers für Ihr Team.

Editionen im Vergleich

Feature Community Personal Professional Enterprise
Lokale Intelligenz Chat + RAG Chat (inkl. MCP) + RAG Volle KI-Suite LLM Trainer
Automatisierung Basic Workflows (Datei/Timer) Agentic Workflows + Text-To-Workflow Wie Professional
Enterprise Integrationen Webscraper, AD/LDAP, E-Mail Wie Professional
Resilienz & Sicherheit Auto Recovery & Audit Logs Self Healing MCP Nodes
Watson Server (Team API) Basis API-Zugriff Execution Dashboard & HITL Wie Professional
Echter Headless Mode (CLI) Daemon & Automation Vollständig (Inkl. MLOps)
Lizenzierung (Hardware-Bound) 99 € / Jahr 390 € / Jahr 1.499 € / Jahr
Neu: Autonome Agenten

Granulare Kontrolle mit MCP Nodes

Verbinden Sie Ihre lokale KI sicher mit Datei-Systemen, Datenbanken und internen Tools. Mit dem Model Context Protocol (MCP) behalten Sie dabei die absolute Kontrolle: Vergeben Sie Rechte pro Workflow, prüfen Sie Aktionen in den Audit-Logs und fordern Sie für kritische Aufgaben manuelle Freigaben an.

Native Integration

Verbinden Sie EIDOSDynamics nahtlos mit Ihrer internen IT. Nutzen Sie den neuen Intent Router und Parallel Fork für rasante, autonome Entscheidungsfindung.

Maximale Sicherheit

Bestimmen Sie über Checkboxen exakt, welche Werkzeuge (Lesen, Schreiben, SQL-Selects) einem bestimmten KI-Agenten im Workflow erlaubt sind.

Human-in-the-Loop (HITL)

Über das Approval-Dashboard pausiert der Agent den Workflow automatisch und holt sich eine manuelle Freigabe eines Admins ein, bevor er sensible Aktionen ausführt.

Revisionssichere Audit Logs

Jede Aktion, jede Tool-Nutzung und jede HITL-Freigabe wird manipulationssicher in einer speziellen SQLite-Datenbank für Ihre Compliance-Prüfer protokolliert.

Enterprise Exklusiv

Ihre Daten. Ihre eigene KI.

Der Heilige Gral der Enterprise-KI: Trainieren Sie Open-Source-Modelle mit Ihrem eigenen juristischen oder medizinischen Fachvokabular. Keine "Dependency Hell", kein Python-Setup, keine Cloud-GPUs. Der EIDOSDynamics LLM Trainer macht natives LoRA-Finetuning zu einem 5-Schritte-Prozess. 100% lokal.

1

Dataset Builder

Sie ziehen Ihre PDFs hinein. Die KI generiert autonom perfekte Q&A-Trainingsdaten im .jsonl Format (80/20 Split).

2

SLM Classifier

Optional: Erstellen Sie aus Ihren Daten blitzschnelle Intent-Klassifizierungs-Modelle für das Routing von Workflows.

3

LoRA Fine-Tuner

Die kompilierte Native-Engine führt das Training (Weight Adjustments) ressourcenschonend direkt auf Ihrer Hardware aus.

4

Model Fuser

Mit einem Klick verschmilzt das neue Wissen (LoRA) untrennbar mit Ihrem gewählten Basismodell (Safetensors).

5

GGUF Converter

Das trainierte Modell wird für maximale Performance quantisiert (z.B. Q8_0) und ist sofort im Chat oder Workflow einsatzbereit.

Ab Release 2026.2.1

Echte Perpetual Lizenzen. Kein SaaS-Zwang.

Kaufen, besitzen, behalten. Alle Editionen sind Hardware-gebunden (1 Host = 1 Lizenz). Ihre Dauerlizenz sichert Ihnen dauerhaften Zugriff auf die von Ihnen gekaufte Version – ohne versteckte Folgekosten.

Community

0 €

Dauerhaft kostenlos

  • ✓ Voller lokaler KI Chat
  • ✓ Optionale Cloud AI Integration
  • ✓ Basis RAG (PDFs / Dokumente)
  • ✕ Keine Workflows
  • ✕ Kein Webserver API Access
macOS ~472 MB (Standalone Installer)
Windows ~2.9 GB (All-in-One Installer, inkl. CUDA)
Empfohlen

Professional

390 €
Dauerlizenz für 1 Host
Inkl. 1 Jahr Updates & Neue Features
  • ✓ Alle Community-Features
  • ✓ Echter Headless Mode
  • ✓ Agentic Workflows
  • ✓ Text-To-Workflow
  • ✓ Approval Dashboard (HITL)
  • ✓ Revisionssichere Audit Logs
  • Auto Recovery bei Abstürzen

Enterprise

1.499 €
Dauerlizenz für 1 Host
Inkl. 1 Jahr Updates & Neue Features
  • ✓ Alle Professional-Features
  • Self Healing MCP Nodes
  • ✓ LLM Trainer
  • ✓ Höchste Ausfallsicherheit
Done-For-You Integration

Sie haben die Vision.
Wir die KI-Architekten.

Fehlen Ihrem IT-Team die Kapazitäten für das LLM Fine-Tuning oder den Aufbau komplexer RAG-Vektordatenbanken? Unsere Experten von EIDOSDynamics Consulting übernehmen die schlüsselfertige Integration direkt auf Ihrer Hardware.

Consulting-Services entdecken →
Hardware Sizing

Optimale Architektur für Mac & CUDA.

RAG Integration

Anbindung interner Vektor-DBs.

Workflow Dev

Custom MCP-Nodes & Agenten.