Langdock Logo
Modelle

Alle Modelle an einem Ort.

Nutze alle Modelle in Chat, Assistants, Agents oder über die API.

Die Preise gelten nur für unser API-Produkt. Chat und Assistenten haben bei Kauf inklusive KI-Modellen keine nutzungsbasierte Kostenkomponente. Langdock berechnet 15% auf den Preis des Modellanbieters. Die Modellpreise stammen von den Modellanbietern in USD. Alle Preise exklusive Mehrwertsteuer.

OpenAI

GPT-4 TurboGPT-4 Turbo
Input-Preis (API):10.63€ / 1M Token
Output-Preis (API):31.90€ / 1M Token
Region:
EUUS
GPT-4oGPT-4o
Input-Preis (API):5.32€ / 1M Token
Output-Preis (API):10.63€ / 1M Token
Region:
EUUS
GPT-4o miniGPT-4o mini
Input-Preis (API):0.16€ / 1M Token
Output-Preis (API):0.64€ / 1M Token
Region:
EU
o1-previewo1-preview
Input-Preis (API):17.55€ / 1M Token
Output-Preis (API):70.18€ / 1M Token
Region:
EU
o1-minio1-mini
Input-Preis (API):3.51€ / 1M Token
Output-Preis (API):14.04€ / 1M Token
Region:
EU

Anthropic

Claude 3.5 SonnetClaude 3.5 Sonnet
Input-Preis (API):3.19€ / 1M Token
Output-Preis (API):15.95€ / 1M Token
Region:
EUUS
Claude 3 HaikuClaude 3 Haiku
Input-Preis (API):0.27€ / 1M Token
Output-Preis (API):1.33€ / 1M Token
Region:
EUUS
Claude 3 OpusClaude 3 Opus
Input-Preis (API):15.95€ / 1M Token
Output-Preis (API):79.75€ / 1M Token
Region:
US

Google

Gemini 1.5 ProGemini 1.5 Pro
Input-Preis (API):7.98€ / 1M Token
Output-Preis (API):22.33€ / 1M Token
Region:
EU
Gemini 1.5 FlashGemini 1.5 Flash
Input-Preis (API):0.16€ / 1M Token
Output-Preis (API):0.64€ / 1M Token
Region:
EU

Meta

Llama 3.1 70BLlama 3.1 70B
Input-Preis (API):2.85€ / 1M Token
Output-Preis (API):3.76€ / 1M Token
Region:
EU
Llama 3.1 8BLlama 3.1 8B
Input-Preis (API):0.32€ / 1M Token
Output-Preis (API):0.65€ / 1M Token
Region:
EU

Mistral

Mistral Large 2Mistral Large 2
Input-Preis (API):3.19€ / 1M Token
Output-Preis (API):9.57€ / 1M Token
Region:
EU
Mistral NemoMistral Nemo
Input-Preis (API):0.37€ / 1M Token
Output-Preis (API):0.37€ / 1M Token
Region:
EU
Aktueller Wechselkurs ist 1 USD = 0.925 EUR.
Modelle zuletzt aktualisiert: 28. September 2024..

Tokenizer

Schätze deinen Token-Verbrauch

Fortschrittliche Sprachmodelle verarbeiten Text mithilfe von Tokens, die häufige Zeichenfolgen in Texten darstellen. Diese Modelle lernen die statistischen Beziehungen zwischen Tokens, um den nächsten in einer Sequenz vorherzusagen.

Die Tokenisierung ist entscheidend dafür, wie diese Modelle Text interpretieren und generieren. Sie zerlegt den Eingabetext in kleinere Einheiten (Tokens), die das Modell verarbeiten kann.

Der Tokenisierungsprozess kann zwischen verschiedenen Modellen variieren. Neuere Modelle verwenden möglicherweise andere Tokenizer als ältere, was zu unterschiedlichen Tokens für denselben Eingabetext führen kann. Dies kann beeinflussen, wie das Modell Text verarbeitet und sich auf die Token-Anzahl auswirken.

Das Verständnis der Tokenisierung ist hilfreich bei der Arbeit mit diesen Modellen, insbesondere wenn es um Eingabelängenbeschränkungen oder die Optimierung der Textverarbeitungseffizienz geht.

Tokens

0

Zeichen

0

Hinweis: Dies ist eine vereinfachte Tokenisierungsmethode und spiegelt möglicherweise nicht genau die exakte Token-Anzahl wider, die von Sprachmodellen verwendet wird. Für eine präzise Tokenisierung solltest du modellspezifische Tokenizer verwenden.

Für typischen englischen Text entspricht ein Token oft etwa 4 Zeichen oder ¾ eines Wortes. Als grobe Schätzung gilt: 100 Token ≈ 75 Wörter.

Für eine präzise Tokenisierung können Entwickler Programmierbibliotheken verwenden. In Python steht das tiktoken-Paket zur Tokenisierung von Text zur Verfügung. Für JavaScript funktioniert das von der Community unterstützte @dbdq/tiktoken-Paket mit vielen fortschrittlichen Sprachmodellen. Diese Tools sind wertvoll für genaue Token-Zählung und Textverarbeitungsaufgaben.