El 25 de febrero, los datos de Jinshi, la cuenta oficial de Qwen en el extranjero, publicaron QwQ-Max-Preview (versión preliminar del modelo de inferencia), que pronto lanzará la versión oficial de QwQ-Max, una versión más pequeña que se puede implementar localmente, y la aplicación oficial QwQ-Max. Qwen también anunció que la versión oficial de QwQ-Max, bajo la licencia Apache 2.0, será Código abierto, junto con Qwen2.5-Max. Además, también se proporcionarán versiones más pequeñas, como QwQ-32B, que se pueden implementar en dispositivos locales. Además, se lanzarán las aplicaciones Android e iOS junto con la versión oficial de QwQ-Max.
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
Ali Baba preguntó a Thousand, ¿qué hay de nuevo
El 25 de febrero, los datos de Jinshi, la cuenta oficial de Qwen en el extranjero, publicaron QwQ-Max-Preview (versión preliminar del modelo de inferencia), que pronto lanzará la versión oficial de QwQ-Max, una versión más pequeña que se puede implementar localmente, y la aplicación oficial QwQ-Max. Qwen también anunció que la versión oficial de QwQ-Max, bajo la licencia Apache 2.0, será Código abierto, junto con Qwen2.5-Max. Además, también se proporcionarán versiones más pequeñas, como QwQ-32B, que se pueden implementar en dispositivos locales. Además, se lanzarán las aplicaciones Android e iOS junto con la versión oficial de QwQ-Max.