Langdock Logo
Changelog

Was ist neu?

Wir arbeiten ständig an neuen Funktionen und Verbesserungen. Hier sind alle Neuerungen.

Aug 19, 2025

Assistenten Templates

Unsere Assistenten Templates sind live! 🎉

Eines der am häufigsten gewünschten Features ist da: Die Assistenten Templates bieten dir 24 verschiedene Templates, die wir auf Basis beliebter Anwendungsfälle unserer Kunden sowie der Erfahrungen aus unserem eigenen Team entwickelt haben. Jetzt kannst du passende Assistenten Templates auswählen, direkt nutzen oder individuell anpassen.

Abteilungs­spezifische & allgemeine Templates: Finde Assistenten, die speziell für bestimmte Abteilungen (bspw. Finance, Marketing oder Sales) zugeschnitten sind, oder wähle aus universellen Helfern für allgemeine Anwendungsfälle.

Flexible Nutzung: Verwende die Assistenten direkt oder passe die Vorlagen an, indem du Anweisungen änderst, Wissensordner hinzufügst oder eigene Integrationen verbindest. Eingebaute Best Practices: Jedes Template enthält erprobte Best-Practices, die Produktivität und Effizienz steigern.

Integrationen prüfen: Einige Assistenten nutzen Integrationen, die in deinem Workspace eventuell nicht aktiviert sind. Stelle sicher, dass die benötigten Integrationen verfügbar und für deinen Anwendungsfall relevant sind.

Template Beispiele:

  • Google Meeting Planer
  • Firmendokumentation Q&A
  • Nutzerfeedback Analyst
  • Marketing Texter
  • Langdock Integrationen bauen
  • Assistenten Ersteller

Wir freuen uns auf dein Feedback und deine Ideen für neue Assistenten Templates! Wir werden auch in Zukunft weitere nützliche Templates hinzufügen.

Aug 17, 2025

Ordner aus Integrationen synchronisieren

Du kannst jetzt Ordner aus deinen Integrationen innerhalb von Langdock Assistenten synchronisieren.

Unterstützte Integrationen: Du kannst ab sofort Dateien aus Ordnern in SharePoint oder Google Drive direkt in Langdock nutzen und so nahtlos mit deiner Wissensbasis arbeiten. Hinweis: Die Integrationen müssen im Workspace aktiviert sein.

Ordner an Assistenten anhängen: Neben einzelnen Dateien kannst du nun auch komplette Ordner direkt an deine Assistenten anhängen. So kannst du zum Beispiel einen Ordner deiner Abteilung, eines Kunden oder eines aktuellen Projekts direkt mit deinem Assistenten teilen. Klicke dazu einfach im Wissensbereich auf „Anhängen“ und suche nach dem gewünschten Ordner.

Immer aktuell: Alle angehängten Ordner werden täglich synchronisiert, damit du stets auf dem neuesten Stand bist.

Datei- und Formatbeschränkungen: Aktuell werden pro Ordner bis zu 200 Dateien unterstützt. Tabellen und Bilder sind derzeit noch nicht verfügbar.

Zugriffskontrolle: Admins können in den Workspace-Einstellungen unter Rollen festlegen, wer die Ordnersynchronisation nutzen darf.

Wir freuen uns auf dein Feedback, um unsere Integrationen stetig zu verbessern und zu erweitern!

Aug 13, 2025

Actions in Chat

Wir freuen uns, dir einen großen Produktivitäts-Boost in Langdock anzukündigen: Actions in Chat! 🚀

Ab sofort kannst du leistungsstarke Funktionen direkt aus dem Chat heraus nutzen, indem du einfach @ eingibst. Dieser neue Shortcut ermöglicht es dir, schnell vier verschiedene Actions direkt im Chat auszuwählen. Damit kannst du schneller und nahtloserer mit Assistenten, Integrationen und Wissensordnern arbeiten.

Übersicht der verschiedenen Action-Typen in Chat:

  • Assistenten: Rufe sofort deine individuellen Assistenten auf, um Aufgabe direkt aus dem Chat heraus zu erledigen. So kannst du mehrere Assistenten in denselben Chat einbinden. Ein Beispiel: Ein Changelog-Assistent erstellt Beiträge zu Feature Updates, ein anderer übersetzt diese anschließend in eine zweite Sprache.
  • Integrationen: Nutze verschiedene Integrationen direkt im Chat, ohne dafür einen Assistenten erstellen zu müssen. Du kannst aus 35 vorgefertigten Integrationen mit über 300 Actions wählen. Welche Integrationen du genau nutzen kannst, hängt von den Einstellungen deines Workspaces ab.
  • Prompt-Bibliothek: Selbstverständlich kannst du weiterhin Prompt-Vorlagen aus deiner Bibliothek verwenden. Diese Funktion ist vom "/" zu "@" gewechselt, um mit den anderen Actions konsistent zu sein.
  • Wissensordner: Füge relevante Wissensordner zu deinem Chat hinzu, um fundiertere Antworten zu erhalten.

Actions in Chat sind besonders hilfreich, um Assistenten und Integrationen spontan in einem Chat zu kombinieren. Gib einfach @ ein und erhalte, was du brauchst genau dort, wo du gerade arbeitest. Für spezifische Anwendungsfälle, die sich teamweit skalieren lassen und regelmäßig genutzt werden sollen, lohnt es sich weiterhin, einen Assistenten mit klaren Anweisungen zu erstellen.

Dieses Update hilft dir, noch schneller und effizienter in Langdock zu arbeiten. Wie immer freuen wir uns auf dein Feedback und sind gespannt, wie du Actions in Chat nutzen wirst!

Aug 07, 2025

GPT-5

Wir freuen uns, heute GPT-5 in Langdock ankündigen zu können!

OpenAI hat gerade ihre GPT-5 Serie veröffentlicht, deren bisher fortschrittlichsten Sprachmodelle. Wir haben gerade GPT-5, GPT-5 mini und GPT-5 nano in Langdock hinzugefügt. Die Modelle sind besser als die vorherige GPT-4.1 Generation – GPT-5 mini ist bereits besser als GPT-4.1 und in einigen Bereichen sogar als o3.

Mit einem viel größeren Kontextfenster und schnelleren Antwortzeiten ermöglicht GPT-5 nahtlosere und produktivere Arbeitsabläufe – egal ob ihr komplexe Recherchen durchführt, lange Inhalte generiert oder fortschrittliche Assistenten entwickelt.

Die wichtigsten Highlights sind:

  • Verbesserte Argumentation & Programmierung: Erreicht bessere Ergebnisse bei technischen, analytischen und programmierenden Aufgaben.
  • Längerer Kontext: Arbeitet mit erweiterten Dokumenten und Gesprächen, ohne den Kontext zu verlieren.
  • Schnellere Antworten: Genießt eine spürbar schnellere und interaktivere Antwortzeit.

Wir haben die Modelle gerade zu Langdock hinzugefügt, sodass ihr es jetzt in euren Chats und Assistenten auswählen könnt.

Jul 31, 2025

Projekte

Wir freuen uns, Projekte vorzustellen, eine neue Organisationsfunktion, die dir mehr Flexibilität bei der Organisation deiner Chats bietet und dir hilft, an größeren Projekten zu arbeiten.

Was sind Projekte? Mit Projekten kannst du Chats in einem bestimmten Kontext gruppieren. Egal, ob du an der nächsten Marketingkampagne oder einem anderen Projekt arbeitest, alle deine Chats bleiben zusammen. Um deinen Workflow noch weiter zu verbessern, kannst du jedem Projekt benutzerdefinierte Anweisungen und Dateien hinzufügen.

Jedes Projekt enthält:

  • Angehängte Dateien, auf die in allen Projekt-Chats zugegriffen werden kann, ohne sie erneut hochladen zu müssen
  • Projektspezifische Anweisungen, die das KI-Verhalten für diese Chats anpassen

So funktionieren Projekte:

  1. Erstelle ein Projekt für deinen spezifischen Zweck.
  2. Lade relevante Dokumente hoch.
  3. Lege individuelle Anweisungen fest, um das KI-Verhalten für dieses Projekt zu steuern.
  4. Beginne mit dem Chatten und erhalte vollen Zugriff auf den Projektkontext und die Dateien.

Du kannst dein erstes Projekt über die Sidebar erstellen. Wir freuen uns auf dein Feedback dazu, ob das in deinen Workflow passt!

Jul 22, 2025

MCP Unterstützung

Wir freuen uns, bekannt zu geben, dass Langdock jetzt das Model Context Protocol (MCP) unterstützt! 🚀

Was ist MCP?

MCP ist ein offenes Protokoll, das vereinheitlicht, wie KI-Anwendungen mit Datenquellen und Tools verbunden werden. Man kann sich MCP wie einen USB-C-Anschluss für KI-Anwendungen vorstellen: Genauso wie USB-C eine einheitliche Verbindung für verschiedene Geräte bietet, ermöglicht MCP eine einheitliche Anbindung von KI-Modellen an unterschiedliche Datenquellen und Tools.

Konkret kannst du deine Assistenten jetzt mit remote MCP-Servern über das Internet verbinden. Dadurch ergeben sich noch mehr Integrationsmöglichkeiten mit verschiedenen Datenquellen – zusätzlich zu den bestehenden Integrationen.

Die wichtigsten Funktionen

  • Flexible Authentifizierung: Funktioniert sowohl mit einfachen API-Keys als auch mit sicheren OAuth-Verbindungen für Dienste, die dies erfordern.
  • Automatische Tool-Erkennung: MCP-Verbindungen erkennen automatisch, welche Tools auf jedem Server verfügbar sind.
  • Nahtlose Integration: MCP-Tools funktionieren direkt in deinen Assistenten-Konversationen (können Bestätigungen erfordern und Eingaben/Ausgaben anzeigen).
  • Kontinuierliches Berechtigungsmanagement: MCP-Integrationen sind vollständig in unser bestehendes Integrations-Framework eingebettet – du kannst Berechtigungen, Freigaben und Nutzung wie bei allen anderen Langdock-Integrationen steuern.
  • Geprüfte Kompatibilität: Wir haben die Kompatibilität mit bekannten MCP-Servern wie Microsoft Docs, Cloudflare Docs und GitHub verifiziert. Generell unterstützen wir alle offenen MCP-Server (ohne Authentifizierung) und MCP-Server mit API-Authentifizierung.

So startest du mit MCP

Du kannst MCP-Integrationen über den "Integrationen hinzufügen"-Button im Integrationsmenü einrichten. Dort kannst du auswählen, ob du wie bisher eine Integration mit JavaScript bauen oder einen MCP-Server anbinden möchtest. Für das Einrichten von MCP-Integrationen benötigen Nutzer die Berechtigung, eigene Integrationen zu erstellen.

Detaillierte Anleitungen findest du in unserer Dokumentation:
https://docs.langdock.com/resources/integrations/mcp


Hinweis: MCP befindet sich noch in einem sehr frühen Entwicklungsstadium. Wir empfehlen, alle Integrationen, die ihr mit MCP erstellt, vor dem produktiven Einsatz gründlich zu testen.

Jul 14, 2025

Deep Research

Wir freuen uns, Deep Research vorzustellen! Deep Research ist ein neues Chat-Feature, das für umfassende, lange Forschungsberichte entwickelt wurde, für die eine tiefgreifende Analyse aus mehreren Quellen erforderlich ist.

Was ist Deep Research?

Deep Research wurde für komplexe Recherchen entwickelt. Es führt mehrere strategische Webrecherchen durch, prüft Ergebnisse aus verschiedenen Quellen und fasst alles in einem strukturierten Bericht zusammen.

Wann ist es sinnvoll, Deep Research zu verwenden?

Deep Research eignet sich besonders gut für Hintergrundrecherchen, die Erforschung von Branchentrends, Markt- und Wettbewerbsanalysen, akademische Forschung, strategische Planung und alle Aufgaben, die eine umfassende Informationsbeschaffung aus mehreren Online-Quellen erfordern. Der daraus resultierende Bericht mit Zitaten kann als PDF heruntergeladen werden, was stundenlange manuelle Recherchen und Zusammenstellungen erspart.

Wie funktioniert das Feature?

Deep Research plant seine Suchstrategie auf intelligente Weise, um Erkenntnisse aus verschiedenen Perpektiven zu gewinnen. Die Suchaktivität mit Quellen kann in Echtzeit verfolgt werden. Unabhängig davon, welches Modell im Chat ausgewählt wird, verwendet Deep Research immer vorkonfigurierte Modelle, um die bestmögliche Qualität zu gewährleisten. Derzeit gibt es eine Nutzungsbeschränkung von 15 Suchen pro Nutzer und Monat.

Deep Research ist jetzt in allen Workspaces verfügbar! 🚀


Ein weiterer Hinweis: Microsoft Azure hat derzeit einige Geschwindigkeitsprobleme mit GPT-4.1. Obwohl wir es immer noch als Standardmodell empfehlen, könnt ihr auch GPT-4.1 mini als schnellere Alternative ausprobieren.

Jun 26, 2025

o3 und GPT-4.1 mini

Wir freuen uns, bekannt zu geben, dass o3 und GPT-4.1 mini jetzt in Langdock verfügbar sind! 🚀

o3 ist OpenAIs leistungsstärkstes Reasoning-Modell, das neue Standards bei Programmierung, Mathematik, Wissenschaft und visueller Problemlösung setzt. Es zeichnet sich bei technischem Schreiben, der Befolgung von Anweisungen und der Bewältigung komplexer mehrstufiger Probleme aus. o3 ist perfekt für Strategie-, Forschungs- und Programmieraufgaben geeignet, die anspruchsvolle Problemlösungsfähigkeiten erfordern.

GPT-4.1 mini ist die kleinere, schnellere Version von GPT-4.1, entwickelt für alltägliche Aufgaben mit deutlich schnelleren Antworten. Dieses effiziente Modell liefert eine Leistung, die mit GPT-4o konkurrenzfähig ist, während es die Latenz um fast die Hälfte reduziert. GPT-4.1 mini eignet sich hervorragend für große Aufgaben, Echtzeitanwendungen und schnelle Inhaltserstellung. Das Sprachmodell war zuvor als globale Bereitstellung verfügbar und ist nun in der EU verfügbar.

Beide Modelle sind jetzt live. Wähle o3 für fortgeschrittenes Reasoning und Intelligenz oder GPT-4.1 mini für Geschwindigkeit und Effizienz!

Wichtiger Hinweis: Wir werden GPT-4.5, o1 (Preview), o1 mini und Gemini 1.5 Pro am 11. Juli außer Betrieb nehmen. Diese Modelle werden ab diesem Datum nicht mehr auf Langdock verfügbar sein. Wir empfehlen, auf die neueren Versionen dieser Modelle umzusteigen.

Jun 19, 2025

Verbessertes Canvas

Wir freuen uns, dass Canvas nun aus der Beta-Phase ist und allen Langdock-Nutzern zur Verfügung steht! 🎉

Canvas ist unsere interaktive Bearbeitungsoberfläche um eure Schreib- und Programmieraufgaben zu vereinfachen. Mit Canvas könnt ihr Texte und Code direkt bearbeiten und dabei Vorschläge von der KI erhalten.

Diese Version enthält einige wichtige Updates, die auf eurem Feedback seit dem Start der Beta-Phase basieren. Vielen Dank an alle, die mit ihren Ideen und Vorschlägen zur Entwicklung der Canvas-Funktion beigetragen haben.

Highlights dieser Version:

  • Optimierte Benutzeroberfläche: Wir haben die Nutzeroberfläche übersichtlicher gestaltet, um eure Arbeitsabläufe reibungsloser und intuitiver zu gestalten.
  • Integrierte Codierungswerkzeuge: Ihr könnt nun Code direkt über das integrierte Terminal in Canvas generieren und ausführen.
  • Als Datei herunterladen: Du kannst dein Canvas jetzt als PDF-, Word- und Markdown-Dokument herunterladen.
  • Vereinfachte Modellauswahl: Es ist nicht mehr erforderlich, ein separates Canvas-Modell auszuwählen; alles funktioniert nahtlos mit den Hauptmodellen, die ihr bereits täglich verwendet.

Ihr könnt das Modell auffordern, Canvas zu verwenden, oder alternativ den Canvas-Modus durch Klicken auf die Schaltfläche im Chatfeld aktivieren.

Wir sindständig bemüht, Canvas zu verbessern, und freuen uns auf euer Feedback.

Jun 18, 2025

Gemini 2.5 Flash and Gemini 2.5 Pro

Wir freuen uns, euch mitteilen zu können, dass Gemini 2.5 Flash und Gemini 2.5 Pro jetzt bei Langdock erhältlich sind! 🚀

Gemini 2.5 Flash ist das schnellere und effizientere Modell der Version 2.5, das für Echtzeit-Aufgaben mit hohem Datenvolumen entwickelt wurde. Es liefert schnelle Antworten, unterstützt bis zu 1 Million Kontext-Token und eignet sich ideal für sofortiges Schreiben, Zusammenfassen und Fragen und Antworten. Perfekt für Assistenten und Chats, bei denen Geschwindigkeit und Effizienz am wichtigsten sind.

Gemini 2.5 Pro ist das fortschrittlichste Modell von Google für komplexe Schlussfolgerungen, Codierung und multimodale Aufgaben. Vergleichbar mit den Modellen „Claude Sonnet“ und „o“ von OpenAI ist Gemini 2.5 Pro ideal für Strategie-, Recherche- und Programmieraufgaben, die fortgeschrittene Problemlösungsfähigkeiten erfordern.

Beide Modelle sind jetzt verfügbar – wählt Flash für Schnelligkeit und Effizienz oder Pro für Intelligence und Tiefe.

Workspace-Administratoren können diese Modelle in den Workspace-Einstellungen unter der Registerkarte „Modelle” aktivieren.

Jun 02, 2025

GPT-4.1 and o4 Mini

Wir freuen uns, bekannt zu geben, dass GPT-4.1 und o4 Mini jetzt in der EU gehostet und in Langdock verfügbar sind. 🙌

GPT-4.1 ist die neueste Version der GPT-4-Serie und bietet bessere Leistung in Geschwindigkeit und Qualität als die vorherige Version. Wir haben GPT-4.1 als Standardmodell für alle neuen Workspaces auf Langdock festgelegt. Zusätzlich wurden alle Workspaces, die zuvor auf GPT-4o, GPT-4o Mini oder GPT-4 eingestellt waren, auf GPT-4.1 als Standardmodell migriert.

Außerdem freuen wir uns, o4 Mini als neues Modell für Langdock vorzustellen. o4 Mini wurde für schnelles, effizientes Denken entwickelt und ist hervorragend geeignet, komplexe Anweisungen, Programmierung und strategische Aufgaben zu bewältigen. Ähnlich wie o3 Mini bietet es eine starke Balance zwischen Geschwindigkeit und Genauigkeit.

May 23, 2025

Claude Sonnet 4

Wir haben die neue Claude-Version in Langdock integriert! 🚀

Claude Sonnet 4 ist der Nachfolger von Sonnet 3.7, ein Modell, das von vielen unserer Nutzer für Texterstellung, Programmierung und Problemlösungsaufgaben bevorzugt wird.

Wie bei Sonnet 3.7 bietet auch Sonnet 4 die Möglichkeit, für komplexe Aufgaben Reasoning zu nutzen. Aus diesem Grund haben wir die Modi als zwei separate Modelle hinzugefügt: Claude Sonnet 4 (Preview) und Claude 4 (Reasoning Preview).

Die neuen Funktionen von Claude Sonnet 4 umfassen:

  • Texterstellung: Wie frühere Sonnet-Versionen behält Claude Sonnet 4 seine Stärke bei der Erstellung natürlicher, menschenähnlicher Texte für Schreibaufgaben bei, darunter E-Mails, Übersetzungen und Content-Erstellung.
  • Verbesserte Programmierleistung: Sonnet 4 überzeugt bei Programmieraufgaben, von der Generierung von Lösungen bis hin zur Navigation durch komplexe Codebasen mit nahezu null Fehlern.
  • Verbesserte Steuerbarkeit: Das Modell bietet mehr Kontrolle über sein Verhalten und ermöglicht es Ihnen, seine Antworten an Ihre spezifischen Bedürfnisse anzupassen.
  • Optimierte Effizienz: Sonnet 4 wurde entwickelt, um Leistungsfähigkeit und Praktikabilität in Balance zu halten und ist ideal für Assistenten, die sowohl Geschwindigkeit als auch Tiefe erfordern.

May 06, 2025

Mobile App

Die Langdock Mobile Apps sind jetzt live! Du kannst Langdock jetzt als Android- oder iOS-App herunterladen und KI direkt von deinem Handy aus nutzen.

Ab jetzt kannst du Langdock überall verwenden. Du kannst zwischen deinen Modellen wählen, den Chat nutzen und deine Assistenten verwenden.

Außerdem haben wir eine stark nachgefragt neue Funktion hinzugefügt: Du kannst jetzt deine Stimme als Eingabe verwenden, Langdock wird sie transkribieren und als Prompt abschicken. Achte auf das Mikrofon-Symbol im Eingabefeld!

Um die App herunterzuladen, gehe in den Apple App Store hier oder den Google Play Store hier.

Apr 03, 2025

Neue GPT-4o Version

Die neueste Version von GPT-4o ist jetzt auf der Plattform verfügbar und bringt verbesserte Antwortqualität sowie schnellere Reaktionszeiten mit sich! 🚀

Zur Vereinfachung wurden die bisher getrennten Versionen "GPT-4o (latest)" und das reguläre "GPT-4o" zusammengeführt. Bei der Auswahl von "GPT-4o" wird nun automatisch die aktuellste Version bereitgestellt.

Die GPT-4o Bildgenerierungsfunktion, die vor einigen Tagen angekündigt wurde, ist aktuell noch nicht auf EU-Servern verfügbar. Wir werden diese Funktionalität hinzufügen, sobald dies der Fall ist.

Darüber hinaus wurden folgende oft gewünschte Verbesserungen vorgenommen:

Mar 17, 2025

Neue Integrationen

Wir haben unsere neuen Integrationen gelauncht! Es ist jetzt viel einfacher, andere Software-Tools in Langdock zu integrieren, um Information abzurufen und Aktionen auszuführen. Das Update besteht aus drei Hauptteilen:

  • 20+ native Integrationen sind ab sofort in Langdock verfügbar
  • Integrationen für eure eigenen Tools können jetzt viel einfacher erstellt werden
  • Verbesserungen bestehender Integrationen und Wissensordner

Neue Integrationen und Aktionen

Wir haben die Integration externer Tools in eure Assistenten erleichtert und viele neue Integrationen für die Tools gebaut, die unsere Kunden nutzen. Zum Beispiel könnt ihr jetztdie folgenden Integrationen nutzen: Jira, HubSpot, Google Sheets, Excel, Outlook, Google Kalender und Google Mail.

Damit könnt ihr Aktionen hinzufügen, die eure Assistenten ausführen können. Zum Beispiel:

  • Schreiben von E-Mail-Entwürfen und Senden an Google Mail oder Outlook
  • Erstellen oder Aktualisieren von Deals in HubSpot
  • Schreiben und Aktualisieren von Tickets in Jira
  • Einen Eintrag in ein Google Sheet oder ein Excel Sheet hinzufügen
  • Eine Nachricht in einem Microsoft Teams-Chat senden
  • Und viele mehr...

Hier findet ihr weitere Details zur Nutzung. Wenn euch eine Integration oder eine spezifische Aktion fehlt, lasst es uns gerne wissen!

Eigene Tools integrieren

Das Langdock-Team wird in den kommenden Wochen Integrationen zu allen Standardsoftware-Tools erstellen. Wenn wir (noch) keine Integration haben oder ihr ein internes Tool integrieren möchtet, könnt ihr eure eigenen Integrationen erstellen.

Wir haben die vorherigen OpenAPI-Schema-basierten Integrationen mit einem einfacheren Integrations-Builder ersetzt. Dieser ermöglicht es auch, eigenes JavaScript zu schreiben, um alle Arten von Sonderfällen abzudecken. Die Integrationen/Aktionen leben jetzt außerhalb der Assistenten, sodass ihr sie in mehreren Assistenten teilen und wiederverwenden könnt. Ihr könnt diesem Guide folgen, um eure eigenen REST-API-basierten Integrationen einzurichten.

Verbesserungen bestehender Integrationen und Wissensquellen

Wir haben auch die Oberfläche und das Nutzung bestehender Integrationen verbessert. Hier sind die wichtigsten Änderungen:

  • Wenn ihr ein Dokument von einer Integration (z.B. SharePoint oder Google Drive) als Assistentenwissen anhängt, aktualisieren wir jetzt den Inhalt des Dokuments alle 24 Stunden. Dies stellt sicher, dass ihr immer mit der neuesten Version des Dokuments in euren Langdock-Assistenten arbeitet. Ihr könnt ein Dokument auch jederzeit manuell aktualisieren.
  • Wissensordner können jetzt mit Nutzern, Gruppen und dem Workspace geteilt werden (ähnlich wie Assistenten). Die Wissensordner wurden von den Kontoeinstellungen in das Integrationsmenü verschoben, um sie sichtbarer zu machen.
  • Wenn ihr bereits eigene Aktionen in einem Assistenten erstellt habt, sind diese weiterhin für einige Zeit verfügbar. Diese sind als read-only markiert, da sie am 30. April eingestellt werden. Wir empfehlen, eure bestehenden Aktionen auf unsere neuen, verbesserten Aktionen zu migrieren. Wenn eure Aktion noch nicht sofort verfügbar ist, lasst es uns wissen, wenn ihr Hilfe bei der Migration benötigt.
  • Vektordatenbanken wurden ebenfalls von individuellen Assistenten in das Integrationsmenü verschoben, um die Wiederverwendung von Verbindungen zu diesen zu erleichtern. Assistenten mit bestehenden Vektordatenbanken wurden entsprechend migriert, um sicherzustellen, dass sie wie zuvor funktionieren.

Zusätzliche Informationen für Workspace-Admins:

  • Standardmäßig sind alle Integrationen aktiviert. Ihr könnt hier konfigurieren, welche Integrationen in eurem Workspace aktiviert werden sollen.
  • Workspace-weite Integrationen (Google Drive & Confluence über Service Accounts) sind jetzt zugunsten der neuen Integrationen eingestellt. Bitte informiert eure Nutzer, damit sie die Integrationen manuell konfigurieren können. Die Funktionen und Berechtigungen sind komplett über die neuen Integrationen abgedeckt.
  • Die Berechtigungen pro Nutzerrolle haben sich geändert, um das neue Integrations-Framework abzubilden: Die Berechtigungen „Vektordatenbanken verbinden“ und „Aktionen verbinden“ wurden entfernt, und die neuen Berechtigungen sind „Wissensordner teilen“ und „Integrationen erstellen“.

Diese neuen Integrationen werden viele weitere Use Cases in Langdock ermöglichen, und dieses Update ist erst der Start. In den kommenden Wochen werden wir viele weitere Funktionen hinzufügen, um mit allen möglichen Arten von Daten in Langdock zu arbeiten. Mehr dazu bald!

Mar 06, 2025

Geschwindigkeitsverbesserungen

Wir haben umfangreiche Geschwindigkeitsverbesserungen auf unserer gesamten Plattform erreicht! Während wir kontinuierlich an der Antwortgeschwindigkeit der Modelle arbeiten, haben wir jetzt dafür gesorgt, dass alles andere auch viel schneller läuft. Außerdem haben wir einige oft angefragte Verbesserungen an unserer Chat-Eingabe und API veröffentlicht.

Feb 26, 2025

Claude 3.7 Sonnet, o3 Mini und Gemini 2.0

Wir haben drei leistungsstarke neue Modelle zu Langdock hinzugefügt: Claude 3.7 Sonnet, OpenAI's o3 Mini und Gemini 2.0 Flash.

Claude 3.7 Sonnet

Claude 3.7 Sonnet ist der Nachfolger von 3.5, einem der meistgenutzten Modelle in unserer Plattform. Die vorherige Version 3.5 wird bereits von vielen Nutzern für Schreibaufgaben wie E-Mails oder Übersetzungen und für Programmierung verwendet.

Die Besonderheit des Modells sind zwei verschiedene Modi, die als verschiedene Modelle in der Modellauswahl wählbar sind:

  • Der erste Modus ermöglicht es Nutzern, das Modell als reguläres LLM agieren und für einfachere Aufgaben sofort die Antwort zu generieren (zum Beispiel E-Mails schreiben oder Texte zu übersetzen).
  • Der Reasoning Modus kann vom Modell genutzt werden, um vor der Antwortgenerierung zu reflektieren, um eine bessere und tiefere Antwort für komplexe Probleme zu finden (zum Beispiel Strategie oder Mathematik).

Wir haben die Modi als zwei separate Modelle hinzugefügt(Claude 3.7 Sonnet und Claude 3.7 Reasoning).

o3 Mini

o3 Mini ist das neueste und effizienteste Modell der Reasoning-Serie von OpenAI.

Es verwendet wie o1, r1 von DeepSeek oder das oben erwähnte Claude 3.7 Sonnet Modell Chain-of-Thought-Denken, um eine Aufgabe in mehrere Schritte zu unterteilen. Dies macht die Modelle nützlich für komplexe Aufgaben wie Mathematik, Physik, komplexe Anweisungen, Programmierung oder komplexe strategische Aufgaben.

o3 Mini ist das neueste und effizienteste von OpenAls Reasoning Serie. o1 ist das generellere Reasoning Modell und o3 Mini st schneller im Vergleich dazu. Da o3 Mini es ermöglicht, den Reasoning Aufwand zu kontrollieren, haben wir sowohl den Standard als auch den erweiterten Reasoning Modus als zwei verschiedene Modelle hinzugefügt (o3 Mini and o3 Mini High).

Gemini 2.0 Flash

Wir haben auch das neue Gemini 2.0 Flash Modell hinzugefügt, das jetzt auch in der EU verfügbar ist. Das Flash-Modell der vorherigen Gemini 1.5 Generation war das schnellere, kleinere Modell im Vergleich zum größeren und fortschrittlicheren Gemini 1.5 Pro. Das neue Gemini 2.0 Flash übertrifft Gemini 1.5 Pro bei wichtigen Benchmarks und ist dabei doppelt so schnell.

Feb 05, 2025

Assistenten-Formulare

Wir führen eine neue Art der Interaktion mit Assistenten bei Langdock ein: Assistenten-Formulare. Beim Erstellen eines Assistenten können Assistentenersteller jetzt die neue Eingabemethode über Formulare wählen, bei der sie die Eingabefelder definieren können, die den Nutzern angezeigt werden.

Ihr könnt ein Interface erstellen, um die Nutzereingaben zu strukturieren, um qualitativ hochwertige Ergebnisse zu erhalten - ähnlich wie bei Umfrageformularen. Wenn Benutzer einen Assistenten mit der neuen Eingabemethode verwenden, wird ihnen das Formular angezeigt, das der Assistentenersteller konfiguriert hat. Ihr könnt Eingaben verwenden, die ihr von anderen Tools kennt, wie:

  • Einzeiliger Text
  • Checkboxen
  • Datei-Upload
  • Dropdown-Auswahl
  • Zahlen
  • Datum

Dies gibt den Erstellern von Assistenten mehr Flexibilität bei der Erstellung von Assistenten und ermöglicht es ihnen, die Eingabestruktur auf Ihre spezifischen Bedürfnisse zuzuschneiden, während es für andere Benutzer einfacher wird, den Assistenten zu verwenden.

Feb 03, 2025

Erinnerung

Das Erinnerungs-Feature ermöglicht eine tiefere Personalisierung der Modellantworten, da Informationen aus früheren Interaktionen in der Applikation gespeichert werden können.

Wenn du Erinnerungen verwendest, kannst du das Modell anweisen, bestimmte Informationen über dich, deine Arbeit oder deine Präferenzen in der Applikation zu speichern. Du kannst zum Beispiel anweisen:

  • Sich an bestimmte Aufgaben deines Jobs zu erinnern
  • Sich eine Vorliebe für einen bestimmten Schreibstil merken.
  • Sich deinen Namen und andere persönliche Informationen merken

Das Erinnerungs-Feature ist standardmäßig deaktiviert. Um es zu verwenden, gehe zu den Präferenzen in den Einstellungen. Dort kannst du die Funktion im Abschnitt „Fähigkeiten“ aktivieren.

Alle Erinnerungen werden in deinem Profil gespeichert und stehen dann in allen Chats (nicht in Chats mit Assistenten) zur Verfügung. Sie sind für andere Nutzer in deinem Workspace nicht zugänglich.

Jan 29, 2025

DeepSeek R1

Langdock unterstützt jetzt das neue R1-Modell des chinesischen KI-Unternehmens DeepSeek hinzugefügt. R1 hat viel Aufmerksamkeit in den Medien für die starke Leistung erhalten. Das Modell ist vergleichbar mit der o1-Serie des Konkurrenten OpenAI.

Das R1-Modell ist in verschiedenen Versionen verfügbar. Wir hosten die 32B-Version auf unseren eigenen Servern in der EU und nutzen die volle 671B-Version von Microsoft Azure in den USA. Da das Modell noch sehr jung ist und sich auf Reasoning fokussiert, haben wir Tools wie Dokumentenupload, Websuche und Datenanalyse aktuell deaktiviert.

Admins können das Modell in den Einstellungen konfigurieren.

Jan 26, 2025

Audio & Video im Chat

Wir freuen uns, dass ihr ab sofort direkt im Chat mit Audio- und Videodateien arbeiten könnt.

Lade deine Aufnahmen (bis zu 200MB) hoch, und unser System transkribiert sie automatisch, sodass du Gespräche über den Inhalt führen kannst.

Allen gängigen Formaten wie MP4, MP3, WAV und MPEG können hochgeladen werden. Egal ob du ein Team-Meeting nachbereiten möchtest, ein Kundengespräch analysieren oder eine Sprachnotiz verarbeiten möchtest - lad einfach die Datei hoch und stelle deine Fragen zum Inhalt.

Jan 22, 2025

Web Modus

Langdock bietet jetzt einen verbesserten Web Modus, der schnelle und aktuelle Antworten mit Links zu relevanten Quellen im Internet bietet.

Wenn in deinem Workspace Web Suche aktiviert ist, kannst du die Web Suche im neu designten Chatfeld auswählen. Dies zwingt das Modell, im Internet nach aktuellen Informationen und Neuigkeiten zu suchen.

Dec 11, 2024

API für Assistenten

Wir haben die API für Assistenten gelauncht. Du kannst jetzt über eine API auf Assistenten zugreifen, einschließlich angehängtem Wissen und verbundenen Tools.

API Image

Um einen Assistenten über die API zugänglich zu machen, müssen Administratoren in den API-Einstellungen einen API-Key erstellen. Danach kannst du den Assistenten mit der API teilen, indem du den Key wie ein normales Workspace-Mitglied einlädst.

Nachdem du die API in deinem Workflow konfiguriert hast (hier ist unsere Dokumentation), kannst du Nachrichten über die API an den Assistenten senden. Die API umfasst auch strukturierte Ausgaben und Dokumenten-Upload.

Dec 04, 2024

Chats teilen

Du kannst jetzt Chats mit Nutzern deines Workspaces teilen, indem du auf den Button in der oberen rechten Ecke klickst. Dies hilft, um deine Arbeit direkt in Langdock mit anderen Nutzern zu teilen.

Der Button erscheint, nachdem die erste Nachricht im Chat gesendet wurde. Sobald ein Chat geteilt wurde, werden auch alle neuen Nachrichten darin geteilt. Andere können den Inhalt dieses Chats nur lesen, aber nicht darin schreiben. Sie haben keinen Zugriff auf die angehängten Dokumente, können aber die vom LLM generierten Antworten sehen, die die Dokumente verwenden. Du kannst einen Chat jederzeit in den Einstellungen wieder für andere sperren.

Nov 22, 2024

Command Bar (Cmd+K)

Du kannst jetzt mit dem Cmd + K Feature direkt mit der Tastatur durch Langdock navigieren und Chats suchen. Dies ermöglicht noch schnelleren und einfacheren Zugriff auf alle Informationen, die du brauchst.

Wenn du Cmd + K auf deiner Tastatur drückst (für Windows Strg + K), öffnet sich ein Menü, um schnell verschiedene Aktionen auszuführen. Hier ein paar Beispiele:

  • Durchsuche alle deine Chats
  • Suche einen bestimmten Assistenten
  • Ändere schnell Einstellungen, wie den Wechsel zum Dark Mode, öffne die Dokumentation, den Changelog oder den Support-Chat.

Wir haben auch einen Such-Button in der oberen linken Ecke hinzugefügt, mit dem ihr die Command Bar öffnen könnt.

Außerdem gibt es jetzt neue und aktualisierte Shortcuts:

  • Neuen Chat öffnen: Cmd + Shift + O
  • Seitenleiste öffnen/schließen: Cmd + Shift + S
  • Letzte Antwort kopieren: Cmd + Shift + C

Wir hoffen diese Verbesserungen helfen euch und machen euch noch produktiver.

Nov 20, 2024

Prompt Variablen

Du kannst jetzt Variablen in deine Prompts einbauen und dynamische Vorlagen erstellen, die sich leicht in verschiedenen Kontexten wiederverwenden lassen.

Wenn du einen neuen Prompt in der Prompt Bibliothek erstellst, umschließe ein Wort mit {{ und }} oder klicke auf den Variablen-Button unten, um es zu einer Variablen zu machen. Wenn du den Prompt später verwendest, können Nutzer schnell die Variablen ausfüllen, um den Prompt an ihre Bedürfnisse anzupassen.

Diese Funktion hilft, einen Prompt noch einfacher in verschiedenen Kontexten zu verwenden, oder es anderen leichter zu machen, deinen Prompt zu nutzen, wenn du ihn teilst.

Weitere Details findest du in unserem Abschnitt über die Prompt-Bibliothek in unserer Dokumentation.

Nov 07, 2024

Assistenten Analytics

Erhalte wertvolle Erkenntnisse in die Nutzung deiner Assistenten mit der neuen Funktion für Nutzeranalysen in Langdock.

Nutzer können jetzt Antworten mit Daumen hoch oder runter bewerten und Kommentare hinterlassen. Das ermöglicht direktes Feedback, das dir helfen kann, die Konfiguration deines Assistenten zu verbessern. Diese Interaktion verbessert das Nutzererlebnis und bietet konkrete Verbesserungsvorschläge im Feedback-Tab.

Im Analyse-Tab kannst du als Bearbeiter oder Besitzer eines Assistenten auf quantitative Daten zur Nutzung über bestimmte Zeiträume zugreifen. Die Anzahl der Nachrichten, Konversationen und Nutzer hilft dir, das Nutzerengagement zu verstehen und Bedürfnisse zu erkennen.

Mit diesen Erkenntnissen können Assistenten-Ersteller die Qualität evaluieren und fundierte Verbesserungen an der Konfiguration vornehmen, was zu einem effektiveren und benutzerfreundlicheren Assistenten führt.

Nov 05, 2024

Canvas

Einführung von Canvas

Wir freuen uns, Canvas vorzustellen – ein neues Feature in Langdock, das Schreib- und Coding Aufgaben einfacher macht. Canvas bietet eine interaktive Oberfläche, in der Texte und Codes direkt mithilfe von KI bearbeitet werden können.

Highlights:

  • Inline-Bearbeitung: Einfaches Bearbeiten und KI-Vorschläge erhalten.
  • Codierungstools: Code überprüfen und Fehler beheben.
  • Schreiberweiterungen: Ton und Stil des Textes leicht anpassen.

Canvas ist jetzt für alle Langdock-Nutzer verfügbar.

Oct 30, 2024

Aktionen

Assistenten können jetzt über Aktionen mit anderen Softwaretools kommunizieren.

Actions

Assistenten können jetzt API-Aufrufe an externe Tools durchführen, was viele Integrationsmöglichkeiten mit CRMs, Ticket-Management-Tools oder internen APIs eröffnet. Schau dir unsere Dokumentation für Details an, einschließlich spezialisierter Anleitungen für Jira, Google Drive, und Salesforce.

Oct 29, 2024

OpenAI o1 Modelle

Wir haben die neuesten OpenAR-Modelle, o1 und o1 mini, hinzugefügt. Admins können sie in den Modelleinstellungen aktivieren. Zur Information: Diese Modelle sind "Denkmodelle", aber keine Ersatzlösungen für alle Aufgaben. Die o1-Modelle sind besser im logischen Denken und bei komplexen Denkaufgaben, wie Mathematik, Datenanalyse oder Programmierung, als frühere Modelle, jedoch nicht bei der Wissensabfrage, Textgenerierung oder Übersetzung. Weitere Informationen findest du in unserem Modellguide.

Oct 28, 2024

Infokarten für Assistenten

Nutzer erhalten jetzt mehr Einblicke in die von ihnen genutzten Assistenten. Beim Klicken auf einen Assistenten in der Assistentenseite siehst du ein Pop-up mit allgemeinen Informationen über den Assistenten, wie z.B. ob die Websuche aktiviert ist oder welches Modell verwendet wird.

Oct 27, 2024

Changelog

Wir haben im Produkt und auf unserer Website einen Changelog hinzugefügt, um dich über neue Funktionen und Verbesserungen zu informieren. Ein Pop-up erscheint unten links im Produkt, wann immer wir ein neues Feature einführen.