Erstellen und verwalten Sie mühelos leistungsstarke GPT Prompts, mischen Sie AI-Modelle und Anbieter.
Steigern Sie die Produktivität, sparen Sie Zeit und kontrollieren Sie Ihre GPT-Lösungen mit Promptitude.
Combines supervised fine-tuning with large-scale reinforcement learning for superior logical inference and problem-solving. Multimodal capabilities under MIT license. More cost-efficient and scalable.
Supports complex reasoning, multiple languages, and various deployment options for efficient performance.
Sonar Huge excels in deep reasoning for complex queries, with state-of-the-art AI extending search to X and Reddit.
Enhances context recognition and supports multilingual interactions for diverse applications. Prioritizes safe third-party integrations.
Offers enhanced context windows and multilingual outputs for various use cases with 8B params. Ensures safe integration of third-party tools. Supports multiple languages effectively.
Advanced Online AI: Model excels in processing extensive natural language tasks.
Responsive Online AI: Optimized for real-time, fact-based communication.
GPT-4 Turbo with Vision: Enhancements include image processing and extended token output for efficiency.
Gemini 1.0 Pro Vision excels in diverse applications by processing text and visual inputs effectively, showcasing proficiency in multimodal tasks.
Explore Gemma 7B: a superior, responsible decoder transformer surpassing benchmarks in safe text generation.
Offering a great value proposition for scalable operations compared to similar models with competitive intelligence.
Feinabgestimmtes Modell in der Parametergröße von 70B. Geeignet für umfangreichere Aufgaben wie Sprachmodellierung, Texterzeugung und Dialogsysteme.
Command Light is a smaller version of Command, Cohere's generative LLM (6B parameters).
Llama 2 ist eine Sammlung von vortrainierten und fein abgestimmten großen Sprachmodellen (LLM) mit einer Skala von 7 Milliarden bis 70 Milliarden Parametern.
Geeignet für sehr einfache Aufgaben, in der Regel das schnellste Modell der GPT-3-Serie und das preiswerteste [ada]
Geeignet für einfache Aufgaben, sehr schnell und kostengünstiger als GPT-3-Instruktor [babbage]
Sehr leistungsfähig, aber schneller und kostengünstiger als GPT-3-Instruktor [curie]
Genauso leistungsfähig wie GPT-3.5-Chat, ein bisschen teurer, ideal für lange Prompts , die viel Kontext benötigen [gpt-3.5-turbo-16k]
Empfohlen für die meisten Prompts: Schnelles und leistungsfähiges GPT-3.5-Modell zu 1/10 der Kosten des GPT-3.5-Instruct [gpt-3.5-turbo]
Kann komplexere Textgenerierungs- und -analyseaufgaben durchführen, läuft auf GPU, 20B Parameter [gpt-neox-20b]
Eine schnellere Version von GPT-J auf der GPU, 6B Parameter [fast-gpt-j]
Basismodell für einfache Aufgaben wie Klassifizierung, funktioniert am besten mit Beispielen mit wenigen Aufnahmen, 6B Parameter [gpt-j]
Kostengünstiger und hochgradig anpassbarer LLM. Die richtige Größe für spezifische Anwendungsfälle, ideal für Textgenerierungsaufgaben und Feinabstimmung.
LLM bietet ein ausgewogenes Verhältnis von Preis und Leistung.
Erzeugt Text in einem konversationellen Format. Optimiert für dialogsprachliche Aufgaben wie die Implementierung von Chatbots oder KI-Agenten. Kann null, eine und wenige Aufgaben bearbeiten.
Erzeugt Text. Optimiert für Sprachaufgaben wie: Codegenerierung, Textgenerierung, Textbearbeitung, Problemlösung, Empfehlungsgenerierung und Informationsextraktion.
Ein schnelleres und preiswerteres, aber immer noch sehr leistungsfähiges Modell, das eine Reihe von Aufgaben bewältigen kann, einschließlich der Analyse von Dialogen, der Zusammenfassung von Texten und der Beantwortung von Fragen zu Dokumenten.
Das leistungsstärkste Modell von Anthropic, das sich durch ein breites Spektrum an Aufgaben auszeichnet, von anspruchsvollen Dialogen und kreativen Inhalten bis hin zur detaillierten Befolgung von Anweisungen.
Eine frühere Version von Anthropic's Allzweck-Großsprachmodellen.