Blog sobre las tecnologías más utilizadas del momento como: Big Data, Machine Learning e IA, además de las herramientas de programación y bibliotecas de Python, Tensorflow, Scykit-learn entre muchos otros!.
Las redes neuronales profundas son un avance clave en el campo de la visión por computadora y el reconocimiento de voz. Durante la última década, las redes neuronales profundas han permitido a las máquinas reconocer imágenes, voz e incluso jugar con una precisión casi imposible para los humanos. Para lograr un alto nivel de precisión,
Esta es una demostración sobre cómo usar la vectorización de conteos con scikit-learn en datos de texto real. Vectorización de recuento (AKA One-Hot Encoding) Una recapitulación de la vectorización de recuento Hoy, vamos a estar observando una de las formas más básicas en que podemos representar datos de texto numéricamente: codificación única (o vectorización de
A continuación, describiremos el proceso de extracción de picos de redes neuronales python individuales a partir de datos en bruto y su preparación para la clasificación de picos. Las redes neuronales biológicas, como el cerebro humano, están formadas por células especializadas llamadas neuronas. Existen varios tipos de neuronas pero todas ellas se basan en el
Deep Learning: ¿Cómo construir un detector de perros y un clasificador CNN de razas de perros?! Este trabajo es parte del proyecto final de Data Science de Udacity. Descripción general: Puede pensar en reconocer la raza de un perro en una imagen es una tarea fácil para usted. ¡Tiene razón!. Puede que no sea difícil
Los modelos de machine learning y deep learning (aprendizaje profundo), como los de Keras, requieren que todas las variables de entrada y salida sean numéricas. Esto significa que si sus datos contienen datos categóricos, debes codificarlo a números antes de que puedas ajustar y evaluar un modelo. Las dos técnicas más populares son una codificación
Además de lindos corgies y gatos animados en tu cuaderno Corgis and Cats en Google Colab Estoy trabajando en un proyecto de Deep Learning que necesito entregar en un par de semanas. Desafortunadamente, mi pobre MacBook está teniendo dificultades para procesar todos los datos de mi proyecto y los modelos complejos que estoy generando en
Redes neuronales de aprendizaje profundo posee la convolución y la capa convolucional que son los principales bloques de construcción utilizados en las redes neuronales convolucionales. Una convolución es la simple aplicación de un filtro a una entrada que da como resultado una activación. La aplicación repetida del mismo filtro a una entrada da como resultado
Deep Learning es una de las tecnologías más populares que existen. Hay muchos artículos de investigación en Deep Learning, y puede ser realmente abrumador mantenerse al día. Hay muchos temas de investigación interesantes, como Redes de adversario generativo, Autocoders y Aprendizaje de refuerzo. La investigación realizada en estos campos despierta asombro e interés, sin embargo,
TensorFlow es el marco de aprendizaje profundo dominante para Data Scientists y Jupyter Notebook es la herramienta de referencia para Data Scientists. ¿Qué sucede si puede utilizar TensorFlow desde cualquier lugar sin la molestia de configurar el entorno? Mejor aún, ¿qué sucede si puede usar la GPU para entrenar sus modelos de Deep Learning de
Selección de Machine Learning métricas de regresión (MSE) – Parte 2. En este artículo Parte 2, discutiré la utilidad de cada métrica de regresión según el objetivo y el problema que intentemos resolver. La Parte 1 presentó los primeros cuatro indicadores como se muestra a continuación, mientras que los restantes se presentan en este artículo. Recordemos primero