Seguimiento y creación de perfiles de capacitación del modelo ML/AI, métricas de rendimiento internas/externas
Recomendaciones minuciosas de optimización ML/AI
Runsets para identificar los resultados más eficientes del entrenamiento de modelos ML/AI con un conjunto de hiperparámetros y un presupuesto definidos
Integración con Spark
OptScale perfila modelos de aprendizaje automático y analiza métricas internas y externas en profundidad para identificar problemas de capacitación y cuellos de botella.
El entrenamiento del modelo ML/AI es un proceso complejo que depende de un conjunto definido de hiperparámetros, hardware o uso de recursos de la nube. OptScale mejora el proceso de creación de perfiles de ML/IA al obtener un rendimiento óptimo y ayuda a alcanzar el mejor resultado de los experimentos de ML/IA.
OptScale brinda total transparencia en todo el proceso de capacitación y equipos del modelo ML/AI y captura las métricas ML/AI y el seguimiento de KPI, que ayudan a identificar problemas complejos en los trabajos de capacitación ML/AI.
Para mejorar el rendimiento, los usuarios de OptScale obtienen recomendaciones tangibles como el uso de instancias reservadas/al contado y planes de ahorro, redimensionamiento y migración de familias de instancias, detección de CPU/IO, inconsistencias de IOPS que pueden ser causadas por transformaciones de datos, uso práctico del tráfico entre regiones, evitar Estado inactivo de los ejecutores de Spark, comparación de ejecución basada en la duración del segmento.
OptScale permite a los ingenieros de ML/IA ejecutar muchos trabajos de capacitación en función de un presupuesto predefinido, diferentes hiperparámetros y hardware (aprovechando las instancias reservadas/puntuales) para revelar el resultado mejor y más eficiente para la capacitación de su modelo de ML/IA.
OptScale es compatible con Spark para hacer que el proceso de creación de perfiles de tareas de Spark ML/AI sea más eficiente y transparente. Un conjunto de recomendaciones de OptScale, entregado a los usuarios después de crear perfiles de modelos ML/AI, incluye evitar el estado inactivo de los ejecutores de Spark.
Una descripción completa de OptScale como una plataforma de código abierto FinOps y MLOps para optimizar el rendimiento de la carga de trabajo en la nube y el costo de la infraestructura. Optimización de los costos de la nube, Dimensionamiento correcto de VM, instrumentación PaaS, Buscador de duplicados S3, Uso de RI/SP, detección de anomalías, + herramientas de desarrollo de IA para una utilización óptima de la nube.
Descubra nuestras mejores prácticas:
Descubra cómo:
1250 Borregas Ave, Sunnyvale, CA 94089, EE. UU. | [email protected]