De la norma a la ortogonalidad : Matemáticas fundamentales para el aprendizaje automático con ejemplos intuitivos Parte 2/3
Para comprender las matemáticas de los algoritmos de aprendizaje automático, especialmente los algoritmos de aprendizaje profundo, es esencial construir el Conceptos matemáticos desde fundacionales hasta más avanzados. Desafortunadamente, las teorías matemáticas son demasiado duras / abstractas / secas para digerir en muchos casos. Imagina que estás comiendo una pizza, siempre es más fácil y más divertido ir con una coca.
El propósito de este artículo es proporcionar ejemplos intuitivos para las teorías matemáticas fundamentales para hacer que la experiencia de aprendizaje sea más agradable y memorable, que consiste en servir alitas de pollo con cerveza, papas fritas con salsa de tomate y costilla con vino.
Las matemáticas fundamentales de 3 cursos para la comida de aprendizaje automático se organizan de la siguiente manera:
- ¿Qué son Scalar, Vector, Matriz y Tensor?
- Adición entre Scalar, Vector y Matrix
- Multiplicación entre escalar, vectorial y matriz
- Identidad y matriz inversa
- Matriz diagonal y matriz simétrica
De la norma a la ortogonalidad : Matemáticas fundamentales para el aprendizaje automático con ejemplos intuitivos Parte 2/3 [ 1 9659012] 1-Norma, 2-Norma, Máxima Norma de Vectores
- Vectores ortogonales y ortonormales
- Matriz ortogonal
De la Eigendecomposición al Determinante : Matemáticas fundamentales para aprendizaje automático con ejemplos intuitivos Parte 3 / 3
- Eigendecomposition de matrix: eigenvalue and eigenvector
- Traza de escalar, vector y matriz
- Determinante de la matriz cuadrada
En este artículo, pasaremos por la parte 2/3, De Norm a la ortogonalidad con ejemplos intuitivos.
1-Norma, 2-Norma, máxima norma de vectores
¿Cómo medir el tamaño de un vector? Un enfoque es usar la función de norma:
- 1-Norm : en aplicaciones de aprendizaje automático, se usa comúnmente cuando la diferencia entre 0 y elementos no-0 es importante.
Por ejemplo, el 1- La norma del vector v podría calcularse como:
- 2-Norm : conocida como la norma euclidiana, que es la distancia euclidiana desde el origen hasta el punto identificado por el vector x [19659025
Crédito de foto a wikipedia
Es común usar la 2-Norma cuadrada en lugar de la 2-Norm en sí misma para medir el tamaño de un vector. La razón es que la 2-Norma cuadrada se puede calcular como:
que es más conveniente que calcular la 2-Norma en sí. El siguiente ejemplo muestra cómo calcular 2-Norma del vector v:
- Max Norm : la máxima absoluta valor del elemento en el vector, que se puede escribir como:
El siguiente ejemplo muestra el cálculo de la Norma máxima del vector v:
Vectores ortogonales y ortonormales
Un vector u y el vector v son ortogonales entre sí, solo si su producto puntual es 0:
Por ejemplo, en el espacio euclidiano 3-D,
En geometría, los dos vectores ortogonales son mutuamente perpendiculares en el espacio euclidiano:
Vector u y vector v son un par de ortonormal vectores significa:
Puede expandirse a las siguientes ecuaciones en el espacio euclidiano 3D:
Por ejemplo,
Por lo tanto, w Decimos que el vector u y el vector v son ortonormales.
Matriz ortogonal
Una matriz ortogonal es una matriz cuadrada cuyas filas y columnas son ortonormales:
Para Por ejemplo, la siguiente matriz es ortogonal porque:
Esto implica que una matriz es ortogonal si su transposición es igual a su inversa:
Por lo tanto, la matriz ortogonal es interesante en el aprendizaje automático porque la inversa de la matriz es muy barata de calcular . Lo que debemos prestar atención es que las filas y columnas en matrices ortogonales no son meramente ortogonales sino también ortonormales.
¡Felicidades! Ha finalizado dos tercios de Matemáticas fundamentales para el aprendizaje automático con ejemplos intuitivos. ¡Puedes hacerlo!
Siguiente paso: De la eigendecomposición al determinante : Matemáticas fundamentales para el aprendizaje automático con ejemplos intuitivos Parte 3/3
De las normas a la ortogonalidad: Matemáticas fundamentales para el aprendizaje automático con ejemplos intuitivos … se publicó originalmente en Hacia la ciencia de datos en Medio, donde las personas continúan la conversación resaltando y respondiendo a esta historia.