Whitepaper 'FinOps y gestión de costes para Kubernetes'
Considere darle a OptScale un Estrella en GitHub, es 100% de código abierto. Aumentaría su visibilidad ante los demás y aceleraría el desarrollo de productos. ¡Gracias!
Ebook 'De FinOps a estrategias comprobadas de gestión y optimización de costos en la nube'
OptScale FinOps
OptScale - FinOps
Descripción general de FinOps
Optimización de costos:
AWS
MS Azure
Nube de Google
Alibaba Cloud
Kubernetes
MLOps
OptScale - MLOps
Perfiles de ML/IA
Optimización de ML/IA
Perfilado de Big Data
PRECIOS DE ESCALA OPTICA
cloud migration
Acura: migración a la nube
Descripción general
Cambio de plataforma de la base de datos
Migración a:
AWS
MS Azure
Nube de Google
Alibaba Cloud
VMware
OpenStack
KVM
Nube pública
Migración desde:
En la premisa
disaster recovery
Acura: recuperación ante desastres y respaldo en la nube
Descripción general
Migración a:
AWS
MS Azure
Nube de Google
Alibaba Cloud
VMware
OpenStack
KVM

Aprovechar el poder del aprendizaje automático para optimizar procesos

A medida que las organizaciones se esfuerzan por modernizar y optimizar sus operaciones, El aprendizaje automático (ML) ha surgido como una herramienta valiosa para impulsar la automatizaciónA diferencia de la automatización tradicional basada en reglas, el aprendizaje automático se destaca en el manejo de procesos complejos y aprende continuamente, lo que genera una mayor precisión y eficiencia a lo largo del tiempo.

Desafíos enfrentados

A pesar de los beneficios potenciales, muchas empresas están estancadas en la etapa piloto, habiendo desarrollado algunas soluciones aisladas. Casos de uso de ML pero dificultades para implementarlos de manera más ampliaSegún una encuesta reciente, solo el 15 por ciento de los encuestados ha logrado escalar la automatización en múltiples áreas de negocios, y solo el 36 por ciento ha implementado algoritmos de ML más allá de la etapa piloto. Esta falta de progreso se puede atribuir a que el conocimiento institucional existente sobre los procesos rara vez está completamente documentado y los conjuntos de reglas simples no capturan fácilmente muchas decisiones. Además, las fuentes de información disponibles sobre la escalabilidad del ML suelen ser demasiado técnicas o de alto nivel para ser efectivas, lo que deja a los líderes sin una guía clara sobre cómo abordar la adopción de algoritmos de ML.

El valor en juego

La incorporación de ML en los procesos ofrece un valor sustancial para las organizaciones. Las empresas líderes han informado de un aumento de la eficiencia de los procesos de más del 30 por ciento y de un aumento de los ingresos del 5 al 10 por ciento. Por ejemplo, una empresa de atención sanitaria empleó con éxito un modelo predictivo para clasificar las reclamaciones en las distintas categorías de riesgo, lo que dio como resultado un aumento del 30 por ciento en las reclamaciones pagadas automáticamente y una reducción del 25 por ciento en el esfuerzo manual. Además, los procesos habilitados con ML permiten a las organizaciones crear sistemas escalables y resistentes que siguen generando valor durante años.

cost optimization, ML resource management

Optimización gratuita de costos en la nube y gestión mejorada de recursos de ML/AI para toda la vida

Conclusiones clave

Para aprovechar eficazmente el poder del aprendizaje automático y optimizar los procesos, las organizaciones deben considerar lo siguiente:
  • Ir más allá de los proyectos piloto. Amplíe las iniciativas de automatización más allá de los casos de uso de ML aislados y amplíe la implementación en varias áreas comerciales.
  • Capturar el conocimiento institucional. Documentar el conocimiento institucional para preservar información valiosa y facilitar su utilización efectiva.
  • Acepta la complejidad. Reconocer que los algoritmos de ML manejan decisiones y procesos complejos.
  • Orientación práctica. Busque información práctica y accesible sobre cómo escalar ML, permitiendo que los miembros del equipo no técnicos lo implementen de manera efectiva.
  • Medir el impacto. Evaluar continuamente el impacto de la implementación de ML en la eficiencia del proceso y la generación de ingresos.
  • Construir sistemas escalables y resilientes. Aproveche el aprendizaje automático para desarrollar procesos que puedan adaptarse y evolucionar, aportando valor a largo plazo a la organización.

Cómo generar impacto con el aprendizaje automático: un enfoque de cuatro pasos

La tecnología de aprendizaje automático y sus aplicaciones están avanzando rápidamente, lo que a menudo deja a los líderes abrumados por el ritmo del cambio. Las organizaciones líderes están adoptando un enfoque de cuatro pasos para integrar eficazmente el aprendizaje automático en sus procesos operativos y simplificar el proceso.

Paso 1: Fomentar las economías de escala y la experiencia

Al operacionalizar aprendizaje automático (ML) En los procesos, las organizaciones suelen cometer el error de centrarse en pasos individuales controlados por equipos específicos. Este enfoque fragmentado diluye el valor general del ML y agota los recursos. Para superar esto, es esencial fomentar la colaboración entre las unidades de negocio y adoptar una perspectiva holística de la automatización.

Derribando silos: Fomentar la colaboración interfuncional en lugar de esfuerzos aislados. Esto garantiza que las iniciativas de aprendizaje automático sean escalables más allá de la prueba de concepto y aborde aspectos críticos de implementación como la integración de modelos y la gobernanza de datos.

Diseño de automatización de extremo a extremo: En lugar de aplicar el aprendizaje automático a pasos aislados, diseñe procesos que se puedan automatizar de principio a fin. Identifique elementos comunes en varios pasos, como entradas, protocolos de revisión, controles, procesamiento y documentación, para liberar el potencial del aprendizaje automático.

Aprovechar las similitudes: Explore casos de uso de arquetipos similares, como el procesamiento de documentos o la detección de anomalías. Las organizaciones pueden aprovechar el aprendizaje automático a gran escala y aprovechar oportunidades sinérgicas al agrupar estos casos de uso.

Las organizaciones pueden aprovechar las economías de escala y la experiencia adoptando un enfoque colaborativo y holístico, allanando el camino para una implementación impactante del aprendizaje automático en los procesos.

Paso 2: Evaluación de los requisitos de capacidad y los enfoques de desarrollo

En el segundo paso, es esencial determinar las capacidades específicas que requiere una empresa en función de los casos de uso arquetípicos identificados en el paso anterior. Por ejemplo, las empresas que desean mejorar sus controles pueden necesitar desarrollar capacidades para la detección de anomalías. Al mismo tiempo, aquellas que tienen dificultades con la migración a canales digitales pueden priorizar el procesamiento del lenguaje y la extracción de texto.

Cuando se trata de construir los modelos de aprendizaje automático (ML) necesarios, hay tres opciones principales disponibles:

Desarrollo interno: Las empresas pueden optar por crear modelos de aprendizaje automático totalmente personalizados de forma interna. Este enfoque exige una cantidad significativa de tiempo y recursos para crear soluciones personalizadas que satisfagan sus necesidades específicas.

Soluciones basadas en plataforma: Otra opción es aprovechar las soluciones basadas en plataformas que ofrecen enfoques de desarrollo con poco o ningún código. Estas soluciones simplifican el proceso de desarrollo de ML y requieren menos experiencia en codificación, lo que permite una implementación más rápida.

Soluciones puntuales: Las empresas pueden adquirir soluciones puntuales predefinidas y adaptadas a casos de uso específicos. Si bien este enfoque es más fácil y rápido de implementar, puede implicar desventajas y limitaciones en comparación con los modelos totalmente personalizados.

Es esencial evaluar diversos factores interconectados para tomar una decisión informada entre las opciones disponibles. Esto incluye considerar si un conjunto de datos en particular se puede utilizar en múltiples áreas y cómo los modelos de aprendizaje automático (ML) se alinean con esfuerzos más amplios de automatización de procesos. Si bien la implementación de ML en procesos transaccionales básicos, como los que se encuentran en las funciones administrativas en la industria bancaria, puede generar un progreso inicial en la automatización, es posible que no conduzca a una ventaja competitiva sostenible. En tales casos, aprovechar las soluciones basadas en plataformas que capitalizan las capacidades del sistema existente suele ser el enfoque más adecuado. Al evaluar cuidadosamente estos factores, las organizaciones pueden navegar por el proceso de toma de decisiones y elegir la opción que mejor se alinee con sus necesidades y objetivos.

Paso 3: Entrenamiento de modelos en entornos del mundo real

En el proceso de operacionalización del aprendizaje automático (ML), uno de los aspectos críticos es brindar capacitación práctica a los modelos. Esto significa que los modelos aprenden y mejoran mediante el análisis de datos de calidad. Sin embargo, en este paso es necesario abordar varias consideraciones y desafíos:

Gestión y calidad de datos: El principal desafío radica en encontrar datos de calidad a partir de los cuales los algoritmos de ML puedan analizar y aprender de manera efectiva. Las empresas pueden enfrentar dificultades para gestionar los datos y garantizar su calidad, principalmente cuando trabajan con múltiples sistemas heredados y cuando los datos no se limpian y mantienen rigurosamente en toda la organización.

Entornos secuenciales: Las implementaciones de ML generalmente involucran tres entornos distintos: el entorno de desarrollo, el entorno de prueba (también conocido como prueba de aceptación del usuario o UAT) y el entorno de producción. En el entorno de desarrollo, se crean los sistemas y se pueden modificar fácilmente. El entorno de prueba permite a los usuarios probar las funcionalidades del sistema, pero las modificaciones al sistema están restringidas. Por último, el entorno de producción es donde el sistema está activo y disponible a escala para los usuarios finales.

Formación óptima en el entorno de producción: Si bien los modelos de ML se pueden entrenar en cualquiera de estos entornos, el entorno de producción generalmente se considera el más óptimo. Utiliza datos del mundo real, lo que permite que los modelos aprendan y se adapten a las condiciones operativas. Sin embargo, pueden surgir ciertas limitaciones, especialmente en industrias altamente reguladas o industrias con importantes preocupaciones sobre la privacidad, donde no todos los datos se pueden usar en los tres entornos.

Al gestionar cuidadosamente la calidad de los datos, aprovechar los entornos secuenciales y considerar las restricciones regulatorias y de privacidad, las organizaciones pueden brindar capacitación "en el trabajo" de manera efectiva a sus modelos de ML, lo que les permite aprender y mejorar en escenarios del mundo real.

En sectores regulados como el bancario, los desarrolladores suelen enfrentarse a limitaciones en el entorno de desarrollo debido a los requisitos reglamentarios, lo que les impide experimentar libremente. Sin embargo, garantizar que los modelos de aprendizaje automático (ML) se entrenen con datos precisos y del mundo real es crucial para su funcionamiento eficaz. Es comprensible que los líderes tengan inquietudes sobre la concesión de autonomía a los algoritmos para la toma de decisiones sin supervisión humana, incluso en sectores con regulaciones menos estrictas. Las organizaciones líderes han adoptado un proceso que incorpora la revisión humana de los resultados del modelo de ML para abordar este desafío. Este enfoque permite un examen exhaustivo de las decisiones del modelo antes de la implementación. El equipo de desarrollo del modelo establece un umbral para cada decisión, otorgando a la máquina plena autonomía solo cuando la decisión supera ese umbral. Este enfoque de participación humana proporciona una protección vital al tiempo que mejora gradualmente la precisión del modelo de ML.

Un ejemplo práctico es el de una empresa de atención médica que implementó esta metodología con éxito. En tres meses, la empresa mejoró significativamente la precisión de su modelo, aumentando la proporción de casos resueltos mediante un procesamiento directo de menos del 40 por ciento a más del 80 por ciento. Al lograr un equilibrio entre aprovechar las capacidades de los modelos de aprendizaje automático y garantizar la supervisión humana, las organizaciones pueden tomar decisiones informadas y lograr mejores resultados.

Paso 4: Optimización de proyectos de ML para la implementación y la escalabilidad

Para implementar y escalar proyectos de aprendizaje automático (ML) de manera eficaz, es fundamental estandarizar los procesos involucrados. Esto garantiza la coherencia y permite a las organizaciones maximizar sus iniciativas de ML. A continuación, se presentan consideraciones fundamentales para lograr proyectos de ML estandarizados:

Adopte una cultura de aprendizaje: Al igual que en la investigación científica, los proyectos de aprendizaje automático deben fomentar una cultura de experimentación y aprendizaje. Incluso cuando los experimentos fallan, se puede obtener conocimiento valioso. Las organizaciones pueden mejorar continuamente sus capacidades de aprendizaje automático acumulando conocimientos de los éxitos y los fracasos.

Implementar las mejores prácticas de MLOps: MLOps (Machine Learning Operations) es un conjunto de prácticas recomendadas que se inspiran en la exitosa combinación de desarrollo de software y operaciones de TI conocida como DevOps. Al aplicar MLOps, las organizaciones pueden optimizar la Ciclo de vida del desarrollo de ML y mejorar la estabilidad del modelo. Esto implica automatizar los pasos repetitivos en los flujos de trabajo de los ingenieros y científicos de datos, lo que garantiza la coherencia y la eficiencia.

Automatizar y estandarizar procesos: La automatización es fundamental para estandarizar los proyectos de ML. Las organizaciones pueden reducir los errores humanos, mejorar la reproducibilidad y acelerar la implementación al automatizar los pasos repetibles en el flujo de trabajo de ML. La estandarización de los procesos también facilita la colaboración entre los diferentes equipos involucrados en el desarrollo de ML, lo que permite flujos de trabajo más fluidos y un intercambio de conocimientos eficiente.

Optimice la implementación y la escalabilidad: La estandarización permite a las organizaciones implementar modelos de ML de manera más eficiente y escalarlos de manera eficaz. Las organizaciones pueden garantizar implementaciones de ML confiables y escalables al establecer prácticas de implementación consistentes y aprovechar las herramientas de automatización. Esto permite la integración perfecta de los modelos de ML en los sistemas existentes y garantiza un funcionamiento sin problemas a escala.

Las organizaciones pueden optimizar sus proyectos de ML, mejorar la eficiencia y lograr escalabilidad al adoptar estos principios y prácticas. La estandarización y la automatización allanan el camino para una implementación consistente, operaciones confiables y la realización de soluciones de ML impactantes.

💡 Conoce más sobre los niveles de madurez de MLOps: los modelos más conocidos → https://hystax.com/mlops-maturity-levels-the-most-well-known-models/

Ingresa tu email para recibir contenido nuevo y relevante

¡Gracias por estar con nosotros!

Esperamos que lo encuentre útil.

Puede darse de baja de estas comunicaciones en cualquier momento. política de privacidad

Noticias e informes

FinOps y MLOps

Una descripción completa de OptScale como una plataforma de código abierto FinOps y MLOps para optimizar el rendimiento de la carga de trabajo en la nube y el costo de la infraestructura. Optimización de los costos de la nube, Dimensionamiento correcto de VM, instrumentación PaaS, Buscador de duplicados S3, Uso de RI/SP, detección de anomalías, + herramientas de desarrollo de IA para una utilización óptima de la nube.

FinOps, optimización de costos en la nube y seguridad

Descubra nuestras mejores prácticas: 

  • Cómo liberar direcciones IP elásticas en Amazon EC2
  • Detectar máquinas virtuales de MS Azure detenidas incorrectamente
  • Reduce tu factura de AWS eliminando las copias instantáneas de disco huérfanas y no utilizadas
  • Y conocimientos mucho más profundos

Optimice el uso de RI/SP para equipos de ML/AI con OptScale

Descubra cómo:

  • ver cobertura RI/SP
  • obtenga recomendaciones para el uso óptimo de RI/SP
  • Mejore la utilización de RI/SP por parte de los equipos de ML/AI con OptScale