Die professionelle LLM-Umgebung für macOS und Windows. Entwickelt für Kanzleien, das Gesundheitswesen und den Mittelstand. Erleben Sie KI auf ChatGPT-Niveau direkt auf Ihrer Hardware – absolut DSGVO-konform.
Native LlamaSharp-Inference. Nahtlose Whisper STT/TTS-Integration. Unterstützt gigantische GGUF-Modelle bis 70B+ lokal.
Lokale ONNX-basierte Embeddings. Intelligentes Dokumenten-RAG mit sauberen Quellenangaben (Citations) direkt aus Ihren PDFs.
Visuelle Pipelines. Native MCP-Nodes mit granularen Rechten. Inklusive AD/LDAP, Webscraper und IMAP/SMTP für autonome Agenten.
Ein OpenAI-kompatibler lokaler Endpunkt. Lassen Sie Ihr Team via Browser sicher auf die KI im Firmennetzwerk zugreifen.
Der Watson API Server ist das Herzstück Ihrer hybriden KI-Infrastruktur. Erstmals vereinen Sie die Power von Cloud-Diensten mit der Sicherheit lokaler Kontrolle – inklusive einer granularen Budgetüberwachung, die Ihre Kreditkarte schützt.
Setzen Sie harte monatliche Token-Limits pro User oder API-Key. Ein fehlerhaftes Skript oder eine Endlosschleife in der Cloud wird sofort gestoppt, bevor Kosten entstehen.
Nutzen Sie Cloud-Vektordatenbanken (wie Pinecone oder Qdrant) direkt über den Watson Server. Alle Verbindungen und Keys werden AES-256 verschlüsselt gespeichert.
Bestimmen Sie für jeden API-Nutzer individuell, ob er auf lokale Modelle, Cloud-Provider oder spezifische interne Knowledge-Bases zugreifen darf.
Vergessen Sie pseudo-versteckte Benutzeroberflächen, die im Hintergrund wertvollen Arbeitsspeicher blockieren. EIDOSDynamics läuft auf Wunsch als purer, ressourcenschonender Hintergrundprozess (CLI). Perfekt für Windows Services, Cronjobs und MLOps-Pipelines.
Mit der neuen Secure Hybrid Engine müssen Sie sich nicht mehr zwischen Datenschutz und KI-Power entscheiden. Nutzen Sie lokale GGUF-Modelle für streng vertrauliche Akten und schalten Sie globale Cloud-KIs für allgemeine Aufgaben hinzu – abgesichert durch unsere unüberwindbare HITL-Firewall.
Ihr Standard-Modus. Modelle wie Llama-3 oder Mistral laufen zu 100% im Arbeitsspeicher Ihrer Hardware. Keine APIs, kein Internet, absolute Datensouveränität.
Hinterlegen Sie optional Ihre API-Keys für Provider wie OpenAI oder Anthropic. Wählen Sie jederzeit im Chat oder Workflow-Builder per Dropdown, welches Modell die aktuelle Aufgabe übernehmen soll.
Wenn eine Cloud-KI in einem autonomen Workflow versucht, über unsere MCP-Tools lokale Daten (Active Directory, SQL, Dateien) auszulesen, blockiert EIDOSDynamics die Aktion sofort. Die Ausführung wird eingefroren und erfordert zwingend Ihre manuelle Freigabe im Approval Dashboard (Human-in-the-loop).
Erfahren Sie, warum Cloud-LLMs (wie ChatGPT) für Kanzleien und Praxen ein Haftungsrisiko darstellen und wie Sie autonome KI-Agenten DSGVO-konform und 100% lokal einsetzen. Inklusive Praxisbeispiel und Checkliste.
EIDOSDynamics nutzt Apple Metal-Beschleunigung. Da GPU und CPU denselben Arbeitsspeicher (Unified Memory) teilen, ist RAM der Schlüssel zur Leistung.
Native Unterstützung für NVIDIA CUDA und Microsoft DirectML. VRAM (Grafikspeicher) ist hier Ihre wichtigste Ressource.
| Feature | Community | Personal | Professional | Enterprise |
|---|---|---|---|---|
| Lokale Intelligenz | Chat + RAG | Chat (inkl. MCP) + RAG | Volle KI-Suite | LLM Trainer |
| Automatisierung | — | Basic Workflows (Datei/Timer) | Agentic Workflows + Text-To-Workflow | Wie Professional |
| Enterprise Integrationen | — | — | Webscraper, AD/LDAP, E-Mail | Wie Professional |
| Resilienz & Sicherheit | — | — | Auto Recovery & Audit Logs | Self Healing MCP Nodes |
| Watson Server (Team API) | — | Basis API-Zugriff | Execution Dashboard & HITL | Wie Professional |
| Echter Headless Mode (CLI) | — | — | Daemon & Automation | Vollständig (Inkl. MLOps) |
| Lizenzierung (Hardware-Bound) | — | 99 € / Jahr | 390 € / Jahr | 1.499 € / Jahr |
Verbinden Sie Ihre lokale KI sicher mit Datei-Systemen, Datenbanken und internen Tools. Mit dem Model Context Protocol (MCP) behalten Sie dabei die absolute Kontrolle: Vergeben Sie Rechte pro Workflow, prüfen Sie Aktionen in den Audit-Logs und fordern Sie für kritische Aufgaben manuelle Freigaben an.
Verbinden Sie EIDOSDynamics nahtlos mit Ihrer internen IT. Nutzen Sie den neuen Intent Router und Parallel Fork für rasante, autonome Entscheidungsfindung.
Bestimmen Sie über Checkboxen exakt, welche Werkzeuge (Lesen, Schreiben, SQL-Selects) einem bestimmten KI-Agenten im Workflow erlaubt sind.
Über das Approval-Dashboard pausiert der Agent den Workflow automatisch und holt sich eine manuelle Freigabe eines Admins ein, bevor er sensible Aktionen ausführt.
Jede Aktion, jede Tool-Nutzung und jede HITL-Freigabe wird manipulationssicher in einer speziellen SQLite-Datenbank für Ihre Compliance-Prüfer protokolliert.
Der Heilige Gral der Enterprise-KI: Trainieren Sie Open-Source-Modelle mit Ihrem eigenen juristischen oder medizinischen Fachvokabular. Keine "Dependency Hell", kein Python-Setup, keine Cloud-GPUs. Der EIDOSDynamics LLM Trainer macht natives LoRA-Finetuning zu einem 5-Schritte-Prozess. 100% lokal.
Sie ziehen Ihre PDFs hinein. Die KI generiert autonom perfekte Q&A-Trainingsdaten im .jsonl Format (80/20 Split).
Optional: Erstellen Sie aus Ihren Daten blitzschnelle Intent-Klassifizierungs-Modelle für das Routing von Workflows.
Die kompilierte Native-Engine führt das Training (Weight Adjustments) ressourcenschonend direkt auf Ihrer Hardware aus.
Mit einem Klick verschmilzt das neue Wissen (LoRA) untrennbar mit Ihrem gewählten Basismodell (Safetensors).
Das trainierte Modell wird für maximale Performance quantisiert (z.B. Q8_0) und ist sofort im Chat oder Workflow einsatzbereit.
Kaufen, besitzen, behalten. Alle Editionen sind Hardware-gebunden (1 Host = 1 Lizenz). Ihre Dauerlizenz sichert Ihnen dauerhaften Zugriff auf die von Ihnen gekaufte Version – ohne versteckte Folgekosten.
Dauerhaft kostenlos
Fehlen Ihrem IT-Team die Kapazitäten für das LLM Fine-Tuning oder den Aufbau komplexer RAG-Vektordatenbanken? Unsere Experten von EIDOSDynamics Consulting übernehmen die schlüsselfertige Integration direkt auf Ihrer Hardware.
Consulting-Services entdecken →Optimale Architektur für Mac & CUDA.
Anbindung interner Vektor-DBs.
Custom MCP-Nodes & Agenten.