ISSN: 2376-130X
kai waehner
El aprendizaje automático (ML) se divide en entrenamiento de modelos e inferencia de modelos. Los marcos de ML suelen utilizar un lago de datos como HDFS o S3 para procesar datos históricos y entrenar modelos analíticos. La inferencia de modelos y el monitoreo a escala de producción en tiempo real es otro desafío común al usar un lago de datos. Pero es posible evitar por completo dicho almacenamiento de datos mediante una arquitectura de transmisión de eventos. Esta charla compara el enfoque moderno con las alternativas tradicionales de lotes y big data y explica beneficios como la arquitectura simplificada, la capacidad de reprocesar eventos en el mismo orden para entrenar diferentes modelos y la posibilidad de construir una arquitectura ML escalable y de misión crítica para la vida real. predicciones de tiempo con muss menos dolores de cabeza y problemas. La charla explica cómo Kai Waehner puede lograr esto aprovechando los marcos de trabajo de código abierto Apache Kafka y TensorFlow.