Volver a la biblioteca de modelos
Groq
llama-4-maverick-17b-128e
Universalestextocontexto largoRazonamiento extremadamente rápido
Política de datos: 未知 / Unknown
未经法务确认上游 ToS,不做承诺
Ver términos de servicio de GroqNota: La política de datos de este proveedor está pendiente de revisión legal; los clientes médicos/legales deben contactar con ventas para confirmar el DPA.
ventana contextual
1M
tokens
salida máxima
4.1K
tokens
corte de conocimiento
—
Calificación general
8.07
/ 10
radar de capacidad
código8.0
Matemáticas8.0
razonamiento8.0
creatividad7.5
multilingüe7.5
long context8.0
velocidad9.5
Precios
precio de entrada$0.240000/ 1M tokens
precio de salida$0.720000/ 1M tokens
Funciones de soporte
Sin funciones adicionales
Ejemplo de llamada
Llamado a través de la puerta de enlace Nexevo.ai: totalmente compatible con OpenAI SDK, solo reemplace la URL base
curl https://api.nexevo.ai/v1/chat/completions \
-H "Authorization: Bearer $NEXEVO_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "llama-4-maverick-17b-128e",
"messages": [
{ "role": "user", "content": "Hello!" }
]
}'