Wir arbeiten ständig an neuen Funktionen und Verbesserungen. Hier sind alle Neuerungen.
Aug 19, 2025
Unsere Assistenten Templates sind live! 🎉
Eines der am häufigsten gewünschten Features ist da: Die Assistenten Templates bieten dir 24 verschiedene Templates, die wir auf Basis beliebter Anwendungsfälle unserer Kunden sowie der Erfahrungen aus unserem eigenen Team entwickelt haben. Jetzt kannst du passende Assistenten Templates auswählen, direkt nutzen oder individuell anpassen.
Abteilungsspezifische & allgemeine Templates: Finde Assistenten, die speziell für bestimmte Abteilungen (bspw. Finance, Marketing oder Sales) zugeschnitten sind, oder wähle aus universellen Helfern für allgemeine Anwendungsfälle.
Flexible Nutzung: Verwende die Assistenten direkt oder passe die Vorlagen an, indem du Anweisungen änderst, Wissensordner hinzufügst oder eigene Integrationen verbindest. Eingebaute Best Practices: Jedes Template enthält erprobte Best-Practices, die Produktivität und Effizienz steigern.
Integrationen prüfen: Einige Assistenten nutzen Integrationen, die in deinem Workspace eventuell nicht aktiviert sind. Stelle sicher, dass die benötigten Integrationen verfügbar und für deinen Anwendungsfall relevant sind.
Template Beispiele:
Wir freuen uns auf dein Feedback und deine Ideen für neue Assistenten Templates! Wir werden auch in Zukunft weitere nützliche Templates hinzufügen.
Aug 17, 2025
Du kannst jetzt Ordner aus deinen Integrationen innerhalb von Langdock Assistenten synchronisieren.
Unterstützte Integrationen: Du kannst ab sofort Dateien aus Ordnern in SharePoint oder Google Drive direkt in Langdock nutzen und so nahtlos mit deiner Wissensbasis arbeiten. Hinweis: Die Integrationen müssen im Workspace aktiviert sein.
Ordner an Assistenten anhängen: Neben einzelnen Dateien kannst du nun auch komplette Ordner direkt an deine Assistenten anhängen. So kannst du zum Beispiel einen Ordner deiner Abteilung, eines Kunden oder eines aktuellen Projekts direkt mit deinem Assistenten teilen. Klicke dazu einfach im Wissensbereich auf „Anhängen“ und suche nach dem gewünschten Ordner.
Immer aktuell: Alle angehängten Ordner werden täglich synchronisiert, damit du stets auf dem neuesten Stand bist.
Datei- und Formatbeschränkungen: Aktuell werden pro Ordner bis zu 200 Dateien unterstützt. Tabellen und Bilder sind derzeit noch nicht verfügbar.
Zugriffskontrolle: Admins können in den Workspace-Einstellungen unter Rollen festlegen, wer die Ordnersynchronisation nutzen darf.
Wir freuen uns auf dein Feedback, um unsere Integrationen stetig zu verbessern und zu erweitern!
Aug 13, 2025
Wir freuen uns, dir einen großen Produktivitäts-Boost in Langdock anzukündigen: Actions in Chat! 🚀
Ab sofort kannst du leistungsstarke Funktionen direkt aus dem Chat heraus nutzen, indem du einfach @ eingibst. Dieser neue Shortcut ermöglicht es dir, schnell vier verschiedene Actions direkt im Chat auszuwählen. Damit kannst du schneller und nahtloserer mit Assistenten, Integrationen und Wissensordnern arbeiten.
Übersicht der verschiedenen Action-Typen in Chat:
Actions in Chat sind besonders hilfreich, um Assistenten und Integrationen spontan in einem Chat zu kombinieren. Gib einfach @ ein und erhalte, was du brauchst genau dort, wo du gerade arbeitest. Für spezifische Anwendungsfälle, die sich teamweit skalieren lassen und regelmäßig genutzt werden sollen, lohnt es sich weiterhin, einen Assistenten mit klaren Anweisungen zu erstellen.
Dieses Update hilft dir, noch schneller und effizienter in Langdock zu arbeiten. Wie immer freuen wir uns auf dein Feedback und sind gespannt, wie du Actions in Chat nutzen wirst!
Aug 07, 2025
Wir freuen uns, heute GPT-5 in Langdock ankündigen zu können!
OpenAI hat gerade ihre GPT-5 Serie veröffentlicht, deren bisher fortschrittlichsten Sprachmodelle. Wir haben gerade GPT-5, GPT-5 mini und GPT-5 nano in Langdock hinzugefügt. Die Modelle sind besser als die vorherige GPT-4.1 Generation – GPT-5 mini ist bereits besser als GPT-4.1 und in einigen Bereichen sogar als o3.
Mit einem viel größeren Kontextfenster und schnelleren Antwortzeiten ermöglicht GPT-5 nahtlosere und produktivere Arbeitsabläufe – egal ob ihr komplexe Recherchen durchführt, lange Inhalte generiert oder fortschrittliche Assistenten entwickelt.
Die wichtigsten Highlights sind:
Wir haben die Modelle gerade zu Langdock hinzugefügt, sodass ihr es jetzt in euren Chats und Assistenten auswählen könnt.
Jul 31, 2025
Wir freuen uns, Projekte vorzustellen, eine neue Organisationsfunktion, die dir mehr Flexibilität bei der Organisation deiner Chats bietet und dir hilft, an größeren Projekten zu arbeiten.
Was sind Projekte? Mit Projekten kannst du Chats in einem bestimmten Kontext gruppieren. Egal, ob du an der nächsten Marketingkampagne oder einem anderen Projekt arbeitest, alle deine Chats bleiben zusammen. Um deinen Workflow noch weiter zu verbessern, kannst du jedem Projekt benutzerdefinierte Anweisungen und Dateien hinzufügen.
Jedes Projekt enthält:
So funktionieren Projekte:
Du kannst dein erstes Projekt über die Sidebar erstellen. Wir freuen uns auf dein Feedback dazu, ob das in deinen Workflow passt!
Jul 22, 2025
Wir freuen uns, bekannt zu geben, dass Langdock jetzt das Model Context Protocol (MCP) unterstützt! 🚀
Was ist MCP?
MCP ist ein offenes Protokoll, das vereinheitlicht, wie KI-Anwendungen mit Datenquellen und Tools verbunden werden. Man kann sich MCP wie einen USB-C-Anschluss für KI-Anwendungen vorstellen: Genauso wie USB-C eine einheitliche Verbindung für verschiedene Geräte bietet, ermöglicht MCP eine einheitliche Anbindung von KI-Modellen an unterschiedliche Datenquellen und Tools.
Konkret kannst du deine Assistenten jetzt mit remote MCP-Servern über das Internet verbinden. Dadurch ergeben sich noch mehr Integrationsmöglichkeiten mit verschiedenen Datenquellen – zusätzlich zu den bestehenden Integrationen.
Die wichtigsten Funktionen
So startest du mit MCP
Du kannst MCP-Integrationen über den "Integrationen hinzufügen"-Button im Integrationsmenü einrichten. Dort kannst du auswählen, ob du wie bisher eine Integration mit JavaScript bauen oder einen MCP-Server anbinden möchtest. Für das Einrichten von MCP-Integrationen benötigen Nutzer die Berechtigung, eigene Integrationen zu erstellen.
Detaillierte Anleitungen findest du in unserer Dokumentation:
https://docs.langdock.com/resources/integrations/mcp
Hinweis: MCP befindet sich noch in einem sehr frühen Entwicklungsstadium. Wir empfehlen, alle Integrationen, die ihr mit MCP erstellt, vor dem produktiven Einsatz gründlich zu testen.
Jul 14, 2025
Wir freuen uns, Deep Research vorzustellen! Deep Research ist ein neues Chat-Feature, das für umfassende, lange Forschungsberichte entwickelt wurde, für die eine tiefgreifende Analyse aus mehreren Quellen erforderlich ist.
Deep Research wurde für komplexe Recherchen entwickelt. Es führt mehrere strategische Webrecherchen durch, prüft Ergebnisse aus verschiedenen Quellen und fasst alles in einem strukturierten Bericht zusammen.
Deep Research eignet sich besonders gut für Hintergrundrecherchen, die Erforschung von Branchentrends, Markt- und Wettbewerbsanalysen, akademische Forschung, strategische Planung und alle Aufgaben, die eine umfassende Informationsbeschaffung aus mehreren Online-Quellen erfordern. Der daraus resultierende Bericht mit Zitaten kann als PDF heruntergeladen werden, was stundenlange manuelle Recherchen und Zusammenstellungen erspart.
Deep Research plant seine Suchstrategie auf intelligente Weise, um Erkenntnisse aus verschiedenen Perpektiven zu gewinnen. Die Suchaktivität mit Quellen kann in Echtzeit verfolgt werden. Unabhängig davon, welches Modell im Chat ausgewählt wird, verwendet Deep Research immer vorkonfigurierte Modelle, um die bestmögliche Qualität zu gewährleisten. Derzeit gibt es eine Nutzungsbeschränkung von 15 Suchen pro Nutzer und Monat.
Deep Research ist jetzt in allen Workspaces verfügbar! 🚀
Ein weiterer Hinweis: Microsoft Azure hat derzeit einige Geschwindigkeitsprobleme mit GPT-4.1. Obwohl wir es immer noch als Standardmodell empfehlen, könnt ihr auch GPT-4.1 mini als schnellere Alternative ausprobieren.
Jun 26, 2025
Wir freuen uns, bekannt zu geben, dass o3 und GPT-4.1 mini jetzt in Langdock verfügbar sind! 🚀
o3 ist OpenAIs leistungsstärkstes Reasoning-Modell, das neue Standards bei Programmierung, Mathematik, Wissenschaft und visueller Problemlösung setzt. Es zeichnet sich bei technischem Schreiben, der Befolgung von Anweisungen und der Bewältigung komplexer mehrstufiger Probleme aus. o3 ist perfekt für Strategie-, Forschungs- und Programmieraufgaben geeignet, die anspruchsvolle Problemlösungsfähigkeiten erfordern.
GPT-4.1 mini ist die kleinere, schnellere Version von GPT-4.1, entwickelt für alltägliche Aufgaben mit deutlich schnelleren Antworten. Dieses effiziente Modell liefert eine Leistung, die mit GPT-4o konkurrenzfähig ist, während es die Latenz um fast die Hälfte reduziert. GPT-4.1 mini eignet sich hervorragend für große Aufgaben, Echtzeitanwendungen und schnelle Inhaltserstellung. Das Sprachmodell war zuvor als globale Bereitstellung verfügbar und ist nun in der EU verfügbar.
Beide Modelle sind jetzt live. Wähle o3 für fortgeschrittenes Reasoning und Intelligenz oder GPT-4.1 mini für Geschwindigkeit und Effizienz!
Wichtiger Hinweis: Wir werden GPT-4.5, o1 (Preview), o1 mini und Gemini 1.5 Pro am 11. Juli außer Betrieb nehmen. Diese Modelle werden ab diesem Datum nicht mehr auf Langdock verfügbar sein. Wir empfehlen, auf die neueren Versionen dieser Modelle umzusteigen.
Jun 19, 2025
Wir freuen uns, dass Canvas nun aus der Beta-Phase ist und allen Langdock-Nutzern zur Verfügung steht! 🎉
Canvas ist unsere interaktive Bearbeitungsoberfläche um eure Schreib- und Programmieraufgaben zu vereinfachen. Mit Canvas könnt ihr Texte und Code direkt bearbeiten und dabei Vorschläge von der KI erhalten.
Diese Version enthält einige wichtige Updates, die auf eurem Feedback seit dem Start der Beta-Phase basieren. Vielen Dank an alle, die mit ihren Ideen und Vorschlägen zur Entwicklung der Canvas-Funktion beigetragen haben.
Highlights dieser Version:
Ihr könnt das Modell auffordern, Canvas zu verwenden, oder alternativ den Canvas-Modus durch Klicken auf die Schaltfläche im Chatfeld aktivieren.
Wir sindständig bemüht, Canvas zu verbessern, und freuen uns auf euer Feedback.
Jun 18, 2025
Wir freuen uns, euch mitteilen zu können, dass Gemini 2.5 Flash und Gemini 2.5 Pro jetzt bei Langdock erhältlich sind! 🚀
Gemini 2.5 Flash ist das schnellere und effizientere Modell der Version 2.5, das für Echtzeit-Aufgaben mit hohem Datenvolumen entwickelt wurde. Es liefert schnelle Antworten, unterstützt bis zu 1 Million Kontext-Token und eignet sich ideal für sofortiges Schreiben, Zusammenfassen und Fragen und Antworten. Perfekt für Assistenten und Chats, bei denen Geschwindigkeit und Effizienz am wichtigsten sind.
Gemini 2.5 Pro ist das fortschrittlichste Modell von Google für komplexe Schlussfolgerungen, Codierung und multimodale Aufgaben. Vergleichbar mit den Modellen „Claude Sonnet“ und „o“ von OpenAI ist Gemini 2.5 Pro ideal für Strategie-, Recherche- und Programmieraufgaben, die fortgeschrittene Problemlösungsfähigkeiten erfordern.
Beide Modelle sind jetzt verfügbar – wählt Flash für Schnelligkeit und Effizienz oder Pro für Intelligence und Tiefe.
Workspace-Administratoren können diese Modelle in den Workspace-Einstellungen unter der Registerkarte „Modelle” aktivieren.
Jun 02, 2025
Wir freuen uns, bekannt zu geben, dass GPT-4.1 und o4 Mini jetzt in der EU gehostet und in Langdock verfügbar sind. 🙌
GPT-4.1 ist die neueste Version der GPT-4-Serie und bietet bessere Leistung in Geschwindigkeit und Qualität als die vorherige Version. Wir haben GPT-4.1 als Standardmodell für alle neuen Workspaces auf Langdock festgelegt. Zusätzlich wurden alle Workspaces, die zuvor auf GPT-4o, GPT-4o Mini oder GPT-4 eingestellt waren, auf GPT-4.1 als Standardmodell migriert.
Außerdem freuen wir uns, o4 Mini als neues Modell für Langdock vorzustellen. o4 Mini wurde für schnelles, effizientes Denken entwickelt und ist hervorragend geeignet, komplexe Anweisungen, Programmierung und strategische Aufgaben zu bewältigen. Ähnlich wie o3 Mini bietet es eine starke Balance zwischen Geschwindigkeit und Genauigkeit.
May 23, 2025
Wir haben die neue Claude-Version in Langdock integriert! 🚀
Claude Sonnet 4 ist der Nachfolger von Sonnet 3.7, ein Modell, das von vielen unserer Nutzer für Texterstellung, Programmierung und Problemlösungsaufgaben bevorzugt wird.
Wie bei Sonnet 3.7 bietet auch Sonnet 4 die Möglichkeit, für komplexe Aufgaben Reasoning zu nutzen. Aus diesem Grund haben wir die Modi als zwei separate Modelle hinzugefügt: Claude Sonnet 4 (Preview) und Claude 4 (Reasoning Preview).
Die neuen Funktionen von Claude Sonnet 4 umfassen:
May 06, 2025
Die Langdock Mobile Apps sind jetzt live! Du kannst Langdock jetzt als Android- oder iOS-App herunterladen und KI direkt von deinem Handy aus nutzen.
Ab jetzt kannst du Langdock überall verwenden. Du kannst zwischen deinen Modellen wählen, den Chat nutzen und deine Assistenten verwenden.
Außerdem haben wir eine stark nachgefragt neue Funktion hinzugefügt: Du kannst jetzt deine Stimme als Eingabe verwenden, Langdock wird sie transkribieren und als Prompt abschicken. Achte auf das Mikrofon-Symbol im Eingabefeld!
Um die App herunterzuladen, gehe in den Apple App Store hier oder den Google Play Store hier.
Apr 03, 2025
Die neueste Version von GPT-4o ist jetzt auf der Plattform verfügbar und bringt verbesserte Antwortqualität sowie schnellere Reaktionszeiten mit sich! 🚀
Zur Vereinfachung wurden die bisher getrennten Versionen "GPT-4o (latest)" und das reguläre "GPT-4o" zusammengeführt. Bei der Auswahl von "GPT-4o" wird nun automatisch die aktuellste Version bereitgestellt.
Die GPT-4o Bildgenerierungsfunktion, die vor einigen Tagen angekündigt wurde, ist aktuell noch nicht auf EU-Servern verfügbar. Wir werden diese Funktionalität hinzufügen, sobald dies der Fall ist.
Darüber hinaus wurden folgende oft gewünschte Verbesserungen vorgenommen:
Mar 17, 2025
Wir haben unsere neuen Integrationen gelauncht! Es ist jetzt viel einfacher, andere Software-Tools in Langdock zu integrieren, um Information abzurufen und Aktionen auszuführen. Das Update besteht aus drei Hauptteilen:
Wir haben die Integration externer Tools in eure Assistenten erleichtert und viele neue Integrationen für die Tools gebaut, die unsere Kunden nutzen. Zum Beispiel könnt ihr jetztdie folgenden Integrationen nutzen: Jira, HubSpot, Google Sheets, Excel, Outlook, Google Kalender und Google Mail.
Damit könnt ihr Aktionen hinzufügen, die eure Assistenten ausführen können. Zum Beispiel:
Hier findet ihr weitere Details zur Nutzung. Wenn euch eine Integration oder eine spezifische Aktion fehlt, lasst es uns gerne wissen!
Das Langdock-Team wird in den kommenden Wochen Integrationen zu allen Standardsoftware-Tools erstellen. Wenn wir (noch) keine Integration haben oder ihr ein internes Tool integrieren möchtet, könnt ihr eure eigenen Integrationen erstellen.
Wir haben die vorherigen OpenAPI-Schema-basierten Integrationen mit einem einfacheren Integrations-Builder ersetzt. Dieser ermöglicht es auch, eigenes JavaScript zu schreiben, um alle Arten von Sonderfällen abzudecken. Die Integrationen/Aktionen leben jetzt außerhalb der Assistenten, sodass ihr sie in mehreren Assistenten teilen und wiederverwenden könnt. Ihr könnt diesem Guide folgen, um eure eigenen REST-API-basierten Integrationen einzurichten.
Wir haben auch die Oberfläche und das Nutzung bestehender Integrationen verbessert. Hier sind die wichtigsten Änderungen:
Zusätzliche Informationen für Workspace-Admins:
Diese neuen Integrationen werden viele weitere Use Cases in Langdock ermöglichen, und dieses Update ist erst der Start. In den kommenden Wochen werden wir viele weitere Funktionen hinzufügen, um mit allen möglichen Arten von Daten in Langdock zu arbeiten. Mehr dazu bald!
Mar 06, 2025
Wir haben umfangreiche Geschwindigkeitsverbesserungen auf unserer gesamten Plattform erreicht! Während wir kontinuierlich an der Antwortgeschwindigkeit der Modelle arbeiten, haben wir jetzt dafür gesorgt, dass alles andere auch viel schneller läuft. Außerdem haben wir einige oft angefragte Verbesserungen an unserer Chat-Eingabe und API veröffentlicht.
Feb 26, 2025
Wir haben drei leistungsstarke neue Modelle zu Langdock hinzugefügt: Claude 3.7 Sonnet, OpenAI's o3 Mini und Gemini 2.0 Flash.
Claude 3.7 Sonnet ist der Nachfolger von 3.5, einem der meistgenutzten Modelle in unserer Plattform. Die vorherige Version 3.5 wird bereits von vielen Nutzern für Schreibaufgaben wie E-Mails oder Übersetzungen und für Programmierung verwendet.
Die Besonderheit des Modells sind zwei verschiedene Modi, die als verschiedene Modelle in der Modellauswahl wählbar sind:
Wir haben die Modi als zwei separate Modelle hinzugefügt(Claude 3.7 Sonnet und Claude 3.7 Reasoning).
o3 Mini ist das neueste und effizienteste Modell der Reasoning-Serie von OpenAI.
Es verwendet wie o1, r1 von DeepSeek oder das oben erwähnte Claude 3.7 Sonnet Modell Chain-of-Thought-Denken, um eine Aufgabe in mehrere Schritte zu unterteilen. Dies macht die Modelle nützlich für komplexe Aufgaben wie Mathematik, Physik, komplexe Anweisungen, Programmierung oder komplexe strategische Aufgaben.
o3 Mini ist das neueste und effizienteste von OpenAls Reasoning Serie. o1 ist das generellere Reasoning Modell und o3 Mini st schneller im Vergleich dazu. Da o3 Mini es ermöglicht, den Reasoning Aufwand zu kontrollieren, haben wir sowohl den Standard als auch den erweiterten Reasoning Modus als zwei verschiedene Modelle hinzugefügt (o3 Mini and o3 Mini High).
Wir haben auch das neue Gemini 2.0 Flash Modell hinzugefügt, das jetzt auch in der EU verfügbar ist. Das Flash-Modell der vorherigen Gemini 1.5 Generation war das schnellere, kleinere Modell im Vergleich zum größeren und fortschrittlicheren Gemini 1.5 Pro. Das neue Gemini 2.0 Flash übertrifft Gemini 1.5 Pro bei wichtigen Benchmarks und ist dabei doppelt so schnell.
Feb 05, 2025
Wir führen eine neue Art der Interaktion mit Assistenten bei Langdock ein: Assistenten-Formulare. Beim Erstellen eines Assistenten können Assistentenersteller jetzt die neue Eingabemethode über Formulare wählen, bei der sie die Eingabefelder definieren können, die den Nutzern angezeigt werden.
Ihr könnt ein Interface erstellen, um die Nutzereingaben zu strukturieren, um qualitativ hochwertige Ergebnisse zu erhalten - ähnlich wie bei Umfrageformularen. Wenn Benutzer einen Assistenten mit der neuen Eingabemethode verwenden, wird ihnen das Formular angezeigt, das der Assistentenersteller konfiguriert hat. Ihr könnt Eingaben verwenden, die ihr von anderen Tools kennt, wie:
Dies gibt den Erstellern von Assistenten mehr Flexibilität bei der Erstellung von Assistenten und ermöglicht es ihnen, die Eingabestruktur auf Ihre spezifischen Bedürfnisse zuzuschneiden, während es für andere Benutzer einfacher wird, den Assistenten zu verwenden.
Feb 03, 2025
Das Erinnerungs-Feature ermöglicht eine tiefere Personalisierung der Modellantworten, da Informationen aus früheren Interaktionen in der Applikation gespeichert werden können.
Wenn du Erinnerungen verwendest, kannst du das Modell anweisen, bestimmte Informationen über dich, deine Arbeit oder deine Präferenzen in der Applikation zu speichern. Du kannst zum Beispiel anweisen:
Das Erinnerungs-Feature ist standardmäßig deaktiviert. Um es zu verwenden, gehe zu den Präferenzen in den Einstellungen. Dort kannst du die Funktion im Abschnitt „Fähigkeiten“ aktivieren.
Alle Erinnerungen werden in deinem Profil gespeichert und stehen dann in allen Chats (nicht in Chats mit Assistenten) zur Verfügung. Sie sind für andere Nutzer in deinem Workspace nicht zugänglich.
Jan 29, 2025
Langdock unterstützt jetzt das neue R1-Modell des chinesischen KI-Unternehmens DeepSeek hinzugefügt. R1 hat viel Aufmerksamkeit in den Medien für die starke Leistung erhalten. Das Modell ist vergleichbar mit der o1-Serie des Konkurrenten OpenAI.
Das R1-Modell ist in verschiedenen Versionen verfügbar. Wir hosten die 32B-Version auf unseren eigenen Servern in der EU und nutzen die volle 671B-Version von Microsoft Azure in den USA. Da das Modell noch sehr jung ist und sich auf Reasoning fokussiert, haben wir Tools wie Dokumentenupload, Websuche und Datenanalyse aktuell deaktiviert.
Admins können das Modell in den Einstellungen konfigurieren.
Jan 26, 2025
Wir freuen uns, dass ihr ab sofort direkt im Chat mit Audio- und Videodateien arbeiten könnt.
Lade deine Aufnahmen (bis zu 200MB) hoch, und unser System transkribiert sie automatisch, sodass du Gespräche über den Inhalt führen kannst.
Allen gängigen Formaten wie MP4, MP3, WAV und MPEG können hochgeladen werden. Egal ob du ein Team-Meeting nachbereiten möchtest, ein Kundengespräch analysieren oder eine Sprachnotiz verarbeiten möchtest - lad einfach die Datei hoch und stelle deine Fragen zum Inhalt.
Jan 22, 2025
Langdock bietet jetzt einen verbesserten Web Modus, der schnelle und aktuelle Antworten mit Links zu relevanten Quellen im Internet bietet.
Wenn in deinem Workspace Web Suche aktiviert ist, kannst du die Web Suche im neu designten Chatfeld auswählen. Dies zwingt das Modell, im Internet nach aktuellen Informationen und Neuigkeiten zu suchen.
Dec 11, 2024
Wir haben die API für Assistenten gelauncht. Du kannst jetzt über eine API auf Assistenten zugreifen, einschließlich angehängtem Wissen und verbundenen Tools.
Um einen Assistenten über die API zugänglich zu machen, müssen Administratoren in den API-Einstellungen einen API-Key erstellen. Danach kannst du den Assistenten mit der API teilen, indem du den Key wie ein normales Workspace-Mitglied einlädst.
Nachdem du die API in deinem Workflow konfiguriert hast (hier ist unsere Dokumentation), kannst du Nachrichten über die API an den Assistenten senden. Die API umfasst auch strukturierte Ausgaben und Dokumenten-Upload.
Dec 04, 2024
Du kannst jetzt Chats mit Nutzern deines Workspaces teilen, indem du auf den Button in der oberen rechten Ecke klickst. Dies hilft, um deine Arbeit direkt in Langdock mit anderen Nutzern zu teilen.
Der Button erscheint, nachdem die erste Nachricht im Chat gesendet wurde. Sobald ein Chat geteilt wurde, werden auch alle neuen Nachrichten darin geteilt. Andere können den Inhalt dieses Chats nur lesen, aber nicht darin schreiben. Sie haben keinen Zugriff auf die angehängten Dokumente, können aber die vom LLM generierten Antworten sehen, die die Dokumente verwenden. Du kannst einen Chat jederzeit in den Einstellungen wieder für andere sperren.
Nov 22, 2024
Du kannst jetzt mit dem Cmd + K Feature direkt mit der Tastatur durch Langdock navigieren und Chats suchen. Dies ermöglicht noch schnelleren und einfacheren Zugriff auf alle Informationen, die du brauchst.
Wenn du Cmd + K auf deiner Tastatur drückst (für Windows Strg + K), öffnet sich ein Menü, um schnell verschiedene Aktionen auszuführen. Hier ein paar Beispiele:
Wir haben auch einen Such-Button in der oberen linken Ecke hinzugefügt, mit dem ihr die Command Bar öffnen könnt.
Außerdem gibt es jetzt neue und aktualisierte Shortcuts:
Wir hoffen diese Verbesserungen helfen euch und machen euch noch produktiver.
Nov 20, 2024
Du kannst jetzt Variablen in deine Prompts einbauen und dynamische Vorlagen erstellen, die sich leicht in verschiedenen Kontexten wiederverwenden lassen.
Wenn du einen neuen Prompt in der Prompt Bibliothek erstellst, umschließe ein Wort mit {{ und }} oder klicke auf den Variablen-Button unten, um es zu einer Variablen zu machen. Wenn du den Prompt später verwendest, können Nutzer schnell die Variablen ausfüllen, um den Prompt an ihre Bedürfnisse anzupassen.
Diese Funktion hilft, einen Prompt noch einfacher in verschiedenen Kontexten zu verwenden, oder es anderen leichter zu machen, deinen Prompt zu nutzen, wenn du ihn teilst.
Weitere Details findest du in unserem Abschnitt über die Prompt-Bibliothek in unserer Dokumentation.
Nov 07, 2024
Erhalte wertvolle Erkenntnisse in die Nutzung deiner Assistenten mit der neuen Funktion für Nutzeranalysen in Langdock.
Nutzer können jetzt Antworten mit Daumen hoch oder runter bewerten und Kommentare hinterlassen. Das ermöglicht direktes Feedback, das dir helfen kann, die Konfiguration deines Assistenten zu verbessern. Diese Interaktion verbessert das Nutzererlebnis und bietet konkrete Verbesserungsvorschläge im Feedback-Tab.
Im Analyse-Tab kannst du als Bearbeiter oder Besitzer eines Assistenten auf quantitative Daten zur Nutzung über bestimmte Zeiträume zugreifen. Die Anzahl der Nachrichten, Konversationen und Nutzer hilft dir, das Nutzerengagement zu verstehen und Bedürfnisse zu erkennen.
Mit diesen Erkenntnissen können Assistenten-Ersteller die Qualität evaluieren und fundierte Verbesserungen an der Konfiguration vornehmen, was zu einem effektiveren und benutzerfreundlicheren Assistenten führt.
Nov 05, 2024
Wir freuen uns, Canvas vorzustellen – ein neues Feature in Langdock, das Schreib- und Coding Aufgaben einfacher macht. Canvas bietet eine interaktive Oberfläche, in der Texte und Codes direkt mithilfe von KI bearbeitet werden können.
Highlights:
Canvas ist jetzt für alle Langdock-Nutzer verfügbar.
Oct 30, 2024
Assistenten können jetzt über Aktionen mit anderen Softwaretools kommunizieren.
Assistenten können jetzt API-Aufrufe an externe Tools durchführen, was viele Integrationsmöglichkeiten mit CRMs, Ticket-Management-Tools oder internen APIs eröffnet. Schau dir unsere Dokumentation für Details an, einschließlich spezialisierter Anleitungen für Jira, Google Drive, und Salesforce.
Oct 29, 2024
Wir haben die neuesten OpenAR-Modelle, o1 und o1 mini, hinzugefügt. Admins können sie in den Modelleinstellungen aktivieren. Zur Information: Diese Modelle sind "Denkmodelle", aber keine Ersatzlösungen für alle Aufgaben. Die o1-Modelle sind besser im logischen Denken und bei komplexen Denkaufgaben, wie Mathematik, Datenanalyse oder Programmierung, als frühere Modelle, jedoch nicht bei der Wissensabfrage, Textgenerierung oder Übersetzung. Weitere Informationen findest du in unserem Modellguide.
Oct 28, 2024
Nutzer erhalten jetzt mehr Einblicke in die von ihnen genutzten Assistenten. Beim Klicken auf einen Assistenten in der Assistentenseite siehst du ein Pop-up mit allgemeinen Informationen über den Assistenten, wie z.B. ob die Websuche aktiviert ist oder welches Modell verwendet wird.
Oct 27, 2024
Wir haben im Produkt und auf unserer Website einen Changelog hinzugefügt, um dich über neue Funktionen und Verbesserungen zu informieren. Ein Pop-up erscheint unten links im Produkt, wann immer wir ein neues Feature einführen.