- Publicado el
Nebius AI Studio ha introducido una variedad de nuevas características y capacidades, mejorando sus funcionalidades de IA para diversas aplicaciones.
Portafolio de Modelos Ampliado
Nebius AI Studio ahora ofrece una selección más amplia de modelos de visión y lenguaje, atendiendo a diversas necesidades. Estos modelos incluyen Qwen-2, LLaVA, Meta's Llama 3.3, Dolphin, Phi y varios modelos de la serie Llama 3. Estos soportan razonamiento complejo, escenarios multilingües y tareas especializadas como aplicaciones médicas. Los modelos de visión permiten subtitulación de imágenes, reconocimiento de productos y otras interacciones con contenido visual.
Mejoras en Generación Aumentada por Recuperación (RAG)
Se han añadido nuevos modelos de embedding como BGE-ICL, e5-mistral y bge-multilingual-gemma2 para mejorar los pipelines de RAG. Esto facilita la construcción de bases de conocimiento, motores de búsqueda semántica avanzada y chatbots contextuales.
Alojamiento de LoRA
Un servicio de alojamiento de LoRA basado en el uso permite a los usuarios cargar y ejecutar sus modelos LoRA preentrenados sin costos fijos ni gestión de infraestructura. Los usuarios solo pagan por los tokens utilizados durante la inferencia.
Escalabilidad y Rendimiento
La plataforma ofrece escalabilidad ilimitada, manejando procesamiento masivo por lotes y garantizando un rendimiento consistente tanto para prototipos como para aplicaciones de nivel de producción. Las opciones de implementación flexibles permiten a los usuarios optimizar para costo o rendimiento.
Fuente(s):
Sigue leyendo
Posts relacionados
Nov 23, 2024
0ComentariosContinue: Asistente de codificación con IA para VS Code y JetBrains
Descubre cómo Continue, una herramienta de IA de código abierto, mejora la codificación en VS Code y los IDEs de JetBrains con sugerencias en tiempo real, edición fluida y más.
Dec 7, 2025
0ComentariosAsegura Tus Datos, Desbloquea la IA: Despliega Open WebUI Localmente con GPU Remota para Ollama
Esta guía técnica detalla el despliegue de Open WebUI en un contenedor de Docker a través de WSL, configurado para interactuar con una instancia remota de Ollama acelerada por GPU en una red local. Sigue estos pasos para una configuración de interfaz LLM desacoplada y de alto rendimiento.
Jun 17, 2025
0ComentariosPresentamos Codestral Embed: El Nuevo Modelo de Embedding de Código de Última Generación de Mistral AI
Análisis de Codestral Embed de Mistral AI, un nuevo modelo de embedding de última generación especializado en código, detallando su rendimiento, flexibilidad, casos de uso clave como RAG y búsqueda semántica, y disponibilidad.