Cree y gestione sin esfuerzo potentes GPT prompts, mezcle modelos de IA y proveedores.
Aumente la productividad, ahorre tiempo y controle sus soluciones GPT con Promptitude.
Combines supervised fine-tuning with large-scale reinforcement learning for superior logical inference and problem-solving. Multimodal capabilities under MIT license. More cost-efficient and scalable.
Supports complex reasoning, multiple languages, and various deployment options for efficient performance.
Sonar Huge excels in deep reasoning for complex queries, with state-of-the-art AI extending search to X and Reddit.
Enhances context recognition and supports multilingual interactions for diverse applications. Prioritizes safe third-party integrations.
Offers enhanced context windows and multilingual outputs for various use cases with 8B params. Ensures safe integration of third-party tools. Supports multiple languages effectively.
Advanced Online AI: Model excels in processing extensive natural language tasks.
Responsive Online AI: Optimized for real-time, fact-based communication.
GPT-4 Turbo with Vision: Enhancements include image processing and extended token output for efficiency.
Gemini 1.0 Pro Vision excels in diverse applications by processing text and visual inputs effectively, showcasing proficiency in multimodal tasks.
Explore Gemma 7B: a superior, responsible decoder transformer surpassing benchmarks in safe text generation.
Offering a great value proposition for scalable operations compared to similar models with competitive intelligence.
Modelo afinado en el tamaño de parámetro de 70B. Adecuado para tareas a mayor escala, como el modelado del lenguaje, la generación de textos y los sistemas de diálogo.
Command Light is a smaller version of Command, Cohere's generative LLM (6B parameters).
Llama 2 es una colección de grandes modelos lingüísticos (LLM) preentrenados y ajustados que oscilan entre 7.000 y 70.000 millones de parámetros.
Capaz de realizar tareas muy sencillas, suele ser el modelo más rápido de la serie GPT-3 y el de menor coste [ada].
Capaz de realizar tareas sencillas, muy rápido y de menor coste que los instructores GPT-3 [babbage].
Muy capaz, pero más rápido y menos costoso que el instructor GPT-3 [curie].
Tan capaz como el chat GPT-3.5, un poco más caro, ideal para largas prompts que requieren mucho contexto [gpt-3.5-turbo-16k].
Recomendado para la mayoría de prompts: Modelo GPT-3.5 rápido y capaz a 1/10 del coste del GPT-3.5 instructor [gpt-3.5-turbo].
Capaz de realizar tareas más complejas de generación y análisis de texto, ejecutándose en GPU, parámetros 20B [gpt-neox-20b].
Una versión más rápida de GPT-J que se ejecuta en GPU, parámetros 6B [fast-gpt-j].
Modelo base para tareas sencillas como la clasificación, funciona mejor con ejemplos de pocas tomas, parámetros 6B [gpt-j].
LLM rentable y altamente personalizable. Tamaño adecuado para casos de uso específicos, ideal para tareas de generación de texto y ajuste fino.
LLM que ofrece un equilibrio entre precio y prestaciones.
Genera texto en formato conversacional. Optimizado para tareas de lenguaje de diálogo como la implementación de bots de chat o agentes de IA. Puede manejar tareas de cero, uno y pocos disparos.
Genera texto. Optimizado para tareas lingüísticas como: Generación de código, Generación de texto, Edición de texto, Resolución de problemas, Generación de recomendaciones y Extracción de información.
Un modelo más rápido y barato, pero muy capaz, que puede realizar una serie de tareas, como el análisis de textos de diálogos informales, el resumen y la respuesta a preguntas sobre documentos.
El modelo más potente de Anthropic, que destaca en una amplia gama de tareas que van desde el diálogo sofisticado y la generación creativa de contenidos hasta el seguimiento detallado de instrucciones.
Una versión anterior de los grandes modelos lingüísticos de propósito general de Anthropic.