Stable Release 1.156

Barrieren senken, Kontrolle vertiefen.

Mit der neuen Version 1.156 führen wir die sichere Spracheingabe und den automatischen Wissens-Sync ein. Wir senken die Hürden für Ihre Teams und optimieren die Administration im Hintergrund. Für effizientere Prozesse bei voller Datensouveränität.

2026 01 Composing Spracheingabe
Keine Hand frei? Kein Problem

Mehr Freiheit durch Sprachunterstützung

Ob auf der Baustelle, mit einem Kaffee in der Hand oder einfach für den schnellen Gedanken zwischendurch: Ab sofort müssen Sie Ihre Prompts in VARIOS AI nicht mehr tippen. Ein Klick auf das neue Mikrofon-Icon genügt, und Sie steuern Ihre KI per Sprache.

Niedrige Hürden für breite Akzeptanz

Wir wissen aus Erfahrung: Je vertrauter die Bedienung, desto schneller etabliert sich ein neues Werkzeug im Alltag. Die Spracheingabe kennen Ihre Teams bereits von Messengern oder Sprachassistenten auf dem Smartphone. Indem wir diese gelernten Muster in VARIOS AI integrieren, senken wir die Hemmschwelle zur Nutzung generativer KI erheblich. Die Interaktion wird beiläufiger, schneller und intuitiver – auch für Mitarbeitende, die sich mit dem Tippen komplexer Prompts bisher schwergetan haben.

Spracheingabe: Maximale Flexibilität – auch bei der Sicherheit.

Doch wir wissen: Auch die Umwandlung von Sprache in Text ist ein KI-Prozess.

Deshalb gilt auch hier unser Prinzip: Ihre KI, Ihre Regeln.
Wir bieten Ihnen die Freiheit zu entscheiden, wo und wie diese Transkription stattfindet – passend zu Ihrem Sicherheitsbedürfnis und Ihrer Infrastruktur:

  • Der Standard (Cloud): Für maximale Geschwindigkeit und geringen Hardware-Aufwand wählen und nutzen Sie Ihre favorisierten Cloud-Schnittstellen zur Transkription.
  • Die High-Secure-Lösung (On-Premise): Sie möchten, dass kein gesprochenes Wort Ihr Netzwerk verlässt, bevor es geprüft wurde? Dann können Sie das Transkriptions-Modell direkt auf Ihrer eigenen Infrastruktur betreiben.

Der Vorteil der On-Premise-Variante:
Da die Umwandlung lokal bei Ihnen stattfindet, greift Ihre konfigurierte Data Loss Prevention (DLP) bevor Daten an das große Sprachmodell gesendet werden. Sensible Informationen werden also im Text erkannt und gefiltert, noch bevor sie die Cloud erreichen.

Ehrlichkeit gehört dazu:
Der Betrieb einer lokalen Transkriptions-KI bietet maximale Datensouveränität, erfordert dafür entsprechende Rechenkapazitäten in Ihrem Rechenzentrum.
Sie haben die Wahl: Komfortable Cloud-Lösung oder maximale Abschottung On-Premise. Wir stellen die Plattform, Sie bestimmen das Sicherheitsniveau.

Export eines Chats als PDF

Oft ist der Dialog mit einem Sprachmodell nur der erste Schritt. Die erarbeiteten Konzepte, Analysen oder Texte werden in anderen Systemen weiterverarbeitet, in Meetings präsentiert oder müssen anderweitig abgelegt werden.

Damit dieser Übergang nahtlos gelingt, können Sie ab sofort Ihre Chatverläufe als PDF exportieren.

Egal ob kurze Abfrage oder umfangreiche Recherche-Session: Ein Klick genügt, und Sie erhalten ein sauber formatiertes Dokument. So machen Sie wertvolle Ergebnisse sofort portabel – für die Dokumentation, für die Weitergabe an Kollegen oder für die weitere Verarbeitung in Ihren Fachanwendungen.

2026 01 Export Chats

Aktuelles Wissen. Automatisch synchronisiert.

Ein Sprachmodell ist immer nur so gut wie die Daten, auf die es zugreift. Bisher bedeutete der Einsatz eigener Wissensdatenbanken oft einen Kompromiss: Entweder hoher manueller Pflegeaufwand oder das Risiko, dass die KI auf veralteten Informationen basiert.

Mit dem neuen Auto-Sync lösen wir dieses Dilemma.

Ab sofort können Sie Quellen wie NextCloud (via WebDav), GitHub oder Ihre lokalen Netzwerkordner direkt mit VARIOS AI verbinden. Sie definieren den Rhythmus, wir übernehmen den Rest: In festen Intervallen prüft das System Ihre Quellen, erkennt Änderungen und aktualisiert Ihre vektorisierte Wissensdatenbank vollautomatisch.

 

Das bedeutet für Sie:

  • Keine veralteten Daten: Ihre Assistenten antworten immer auf Basis der aktuellen Realität.
  • Kein manueller Aufwand: Das händische Hochladen und Vektorisieren neuer Dateiversionen entfällt komplett.
  • Unabhängigkeit: Nutzen Sie modernste Vektorsuche auch für Daten, die nicht in einer API-fähigen Cloud liegen.
  • Ihre Daten bleiben dort, wo sie hingehören – aber das Wissen darin ist für Ihre KI jederzeit frisch verfügbar.

2026 02 Wissensdatenbank Synchronisierung De

Modelle und Assistenten duplizieren

Kopieren. Testen. Optimieren.
Der Weg zum perfekten KI-Assistenten ist oft ein iterativer Prozess. Ab sofort machen wir diesen Weg deutlich kürzer. Duplizieren Sie bestehende Assistenten und Modelle inklusive aller Konfigurationen – von Prompts über Konnektoren bis hin zu DLP-Regeln – mit einem einzigen Klick.

Diese neue Funktion gibt Ihnen die Freiheit, sicher zu experimentieren:

  • A/B-Testing leicht gemacht: Erstellen Sie eine exakte Kopie Ihres produktiven Assistenten und variieren Sie gezielt einzelne Parameter. Vergleichen Sie, wie sich unterschiedliche Werte für Kreativität und Vielfalt oder angepasste Prompts auf die Ergebnisqualität auswirken.
  • Sichere Sandbox: Testen Sie strengere Sicherheits-Einstellungen oder neue Datenquellen an einem Duplikat, ohne den laufenden Betrieb des Original-Assistenten zu gefährden.
  • Effizientes Management: Nutzen Sie bewährte Konfigurationen als Vorlage („Template“) für neue Use Cases, statt jedes Mal bei Null anzufangen.

So entwickeln Sie Ihre KI-Umgebung Schritt für Schritt weiter – datengetrieben und risikofrei.

Feinjustierung für Ihre Wissensdatenbanken

Mehr Präzision bei Antworten aus Ihren Datenschätzen.

 

Nicht jede Frage erfordert die gleiche Suchtiefe. Mit der neuen erweiterten Such-Konfiguration geben wir Ihnen die Werkzeuge an die Hand, um genau zu steuern, wie VARIOS AI Informationen aus Ihren Dokumenten verarbeitet. Sie entscheiden, wie die KI sucht und wie viel Kontext sie dabei berücksichtigt.

Ihre neuen Möglichkeiten im Überblick:

  • Variable Chunk-Größe: Bestimmen Sie selbst, wie groß die Textabschnitte (Chunks) sind, die an das Sprachmodell gesendet werden. Kleinere Fragmente sorgen für punktgenaue Antworten bei spezifischen Fragen, während größere Abschnitte mehr Kontext liefern.
  • Flexible Suchstrategien:
    • Semantisch: Die KI sucht nach der Bedeutung und dem Sinnzusammenhang (ideal für offene Fragen).
    • Wörtlich: Die KI sucht nach exakten Begriffen (ideal für Artikelnummern oder feste Definitionen).
    • Hybrid: Kombinieren Sie beide Methoden für bestmögliche Ergebnisse.

Optimieren Sie Ihre Wissensdatenbanken jetzt im Admin-Bereich – für Antworten, die genau so präzise sind, wie Sie es benötigen.

 

Mockup Light Theme Chunk Größen Kopie