Blog sobre las tecnologías más utilizadas del momento como: Big Data, Machine Learning e IA, además de las herramientas de programación y bibliotecas de Python, Tensorflow, Scykit-learn entre muchos otros!.
Redes neuronales de aprendizaje profundo posee la convolución y la capa convolucional que son los principales bloques de construcción utilizados en las redes neuronales convolucionales. Una convolución es la simple aplicación de un filtro a una entrada que da como resultado una activación. La aplicación repetida del mismo filtro a una entrada da como resultado
Analytics para millones de eventos que tenemos al día por eso en este artículo describimos cómo organizamos Kafka, Dataflow y BigQuery juntos para ingerir y transformar una gran cantidad de eventos. Cuando se agregan restricciones de escala y latencia, la conciliación y la reordenación se convierten en un desafío, así es como lo abordamos. La
Cómo usamos y abusamos de Redshift para entregar nuestros datos En la primera Parte 1, describimos nuestra tubería de ingesta de datos de Analytics, con BigQuery como nuestro almacén de datos. Sin embargo, tener nuestros eventos analíticos en BigQuery no es suficiente. Lo más importante es que los datos deben ser enviados a nuestros usuarios finales . En este artículo, detallaremos: