Los modelos Qwen en Vertex AI ofrecen modelos totalmente gestionados y sin servidor como APIs. Para usar un modelo de Qwen en Vertex AI, envía una solicitud directamente al endpoint de la API de Vertex AI. Como los modelos de Qwen usan una API gestionada, no es necesario aprovisionar ni gestionar ninguna infraestructura.
Puedes transmitir tus respuestas para reducir la latencia que perciben los usuarios finales. Una respuesta en streaming usa eventos enviados por el servidor (SSE) para enviar la respuesta de forma incremental.
Modelos de Qwen disponibles
Los siguientes modelos de Qwen están disponibles para usarse en Vertex AI. Para acceder a un modelo de Qwen, ve a su tarjeta de modelo de Model Garden.
Qwen3-Next-80B Instruct
Qwen3-Next-80B Instruct es un modelo de lenguaje de la familia de modelos Qwen3-Next. Está diseñada para seguir comandos específicos y gestionar textos muy largos. Utiliza un diseño inteligente llamado Mixture-of-Experts (MoE), que activa un subconjunto de los parámetros disponibles para procesar la información, lo que hace que sea más rápido y rentable de ejecutar que otros modelos de su tamaño.
La versión Instruct se ha optimizado para ofrecer respuestas directas y fiables en aplicaciones de chat y de agentes, y su gran ventana de contexto le permite mantener en memoria una conversación completa o un documento de gran tamaño.
Ir a la tarjeta del modelo Qwen3-Next-80B Instruct
Qwen3-Next-80B Thinking
Qwen3-Next-80B Thinking es un modelo de lenguaje de la familia Qwen3-Next. Está especializada en la resolución de problemas complejos y en el razonamiento profundo. Su modo de "pensamiento" genera un proceso de razonamiento visible paso a paso junto con la respuesta final, lo que lo hace ideal para tareas que requieren una lógica transparente, como demostraciones matemáticas, depuración de código complejo o planificación de agentes de varios pasos.
Ir a la tarjeta de modelo de Qwen3-Next-80B Thinking
Qwen3 Coder (Qwen3 Coder)
Qwen3 Coder (Qwen3 Coder
) es un modelo de gran escala y de código abierto
desarrollado para tareas avanzadas de desarrollo de software. La característica principal del modelo es su amplia ventana de contexto, que le permite procesar y comprender grandes bases de código de forma integral.
Ir a la tarjeta del modelo Qwen3 Coder
Qwen3 235B (Qwen3 235B)
Qwen3 235B (Qwen3 235B
) es un modelo grande de 235.000 millones de parámetros. El modelo se distingue por su capacidad de "pensamiento híbrido", que permite a los usuarios cambiar dinámicamente entre un modo de "pensamiento" metódico y paso a paso para tareas complejas, como el razonamiento matemático y la programación, y un modo rápido de "no pensamiento" para conversaciones de uso general. Su amplia ventana de contexto la hace adecuada para casos prácticos que requieren un razonamiento profundo y una comprensión de textos largos.
Ir a la tarjeta del modelo Qwen3 235B
Antes de empezar
Para usar los modelos de Qwen con Vertex AI, debes seguir estos pasos. La API de Vertex AI
(aiplatform.googleapis.com
) debe estar habilitada para usar
Vertex AI. Si ya tienes un proyecto con la API Vertex AI habilitada, puedes usarlo en lugar de crear uno nuevo.
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator
(
roles/resourcemanager.projectCreator
), which contains theresourcemanager.projects.create
permission. Learn how to grant roles.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the Vertex AI API.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin
), which contains theserviceusage.services.enable
permission. Learn how to grant roles. -
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator
(
roles/resourcemanager.projectCreator
), which contains theresourcemanager.projects.create
permission. Learn how to grant roles.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the Vertex AI API.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin
), which contains theserviceusage.services.enable
permission. Learn how to grant roles. - Ve a una de las siguientes tarjetas de modelo de Model Garden y haz clic en Habilitar.