Reconocida por Forrester como solución líder de gestión de costos en la nube
Seguimiento y descripción del entrenamiento del modelo ML/AI, recopilación de métricas de rendimiento internas y externas
Recomendaciones minuciosas de optimización ML/AI
Runsets para identificar los resultados más eficientes del entrenamiento de modelos ML/AI con un conjunto de hiperparámetros y un presupuesto definidos
Integración con Spark
OptScale describe los modelos de aprendizaje automático y ofrece un análisis profundo de las métricas internas y externas para identificar los problemas y cuellos de botella del entrenamiento. El entrenamiento de modelos de ML/AI es un proceso complejo, que depende de un conjunto definido de hiperparámetros y del uso de recursos de hardware o de la nube. OptScale mejora el proceso de creación de perfiles de ML/AI consiguiendo un rendimiento óptimo, y ayuda a alcanzar el mejor resultado de los experimentos ML/AI.
OptScale proporciona una transparencia total en todo el proceso de entrenamiento de modelos y equipos de ML/AI, captura métricas de ML/AI y seguimiento de KPI (indicadores clave de rendimiento), que ayudan a identificar problemas complejos que aparecen en los trabajos de entrenamiento de ML/AI. Para mejorar el rendimiento, los usuarios de OptScale obtienen recomendaciones tangibles como la utilización de instancias Reservadas/Spot y Planes de Ahorro, el redimensionamiento y la migración de familias de instancias, la detección de incoherencias de CPU/IO, IOPS que pueden ser causadas por transformaciones de datos, el uso eficaz del tráfico entre regiones, el evitar el estado inactivo de los ejecutores Spark, la comparación de ejecuciones basada en la duración del segmento.
OptScale permite a los ingenieros de ML/AI ejecutar un montón de trabajos de entrenamiento basados en un presupuesto predefinido, diferentes hiperparámetros y hardware (aprovechando las instancias Reservadas/Spot) para revelar el mejor y más eficiente resultado para el entrenamiento de tu modelo de ML/AI.
OptScale es compatible con Spark para que el proceso de descripción de tareas ML/AI de Spark sea más eficiente y transparente. Un conjunto de recomendaciones de OptScale, que se entregan a los usuarios después de describir los modelos de ML/AI, incluye evitar el estado inactivo de los ejecutores Spark.
Una descripción completa de OptScale como plataforma de gestión de entornos de prueba y FinOps para organizar el uso del entorno de TI compartido, optimizar y prever los costos de Kubernetes y de la nube
Descubre cómo OptScale ayuda a las empresas a aumentar rápidamente la adopción de FinOps al involucrar a los ingenieros en la habilitación de FinOps y en el ahorro de costeo en la nube