Categoría: Articulos

  • Eigenvectores, Eigenvalores y Compresión de Datos (Eigenfaces)

    En el artículo anterior se trabajo los autovalores y autovectores, es común quedarse con la sensación de que son conceptos abstractos. Pero en realidad, están detrás de muchas de las herramientas más potentes del análisis de datos moderno.

    Una de ellas es el Análisis de Componentes Principales (PCA), una técnica que permite comprimir información sin perder lo esencial.

    En este artículo veremos cómo los eigenvectores sirven para reducir la dimensionalidad de los datos, y cómo este principio se aplica a algo tan visual como la compresión de imágenes de rostros humanos.

    Cuando trabajamos con datos reales —imágenes, audio, sensores o registros de clientes— solemos tener miles de variables. Eso significa que el procesamiento se vuelve lento, costoso y muchas veces innecesario, porque buena parte de los datos son redundantes.

    El PCA (Principal Component Analysis) se basa precisamente en encontrar las direcciones de mayor variabilidad dentro de los datos. Y esas direcciones no son otras que los autovectores de la matriz de covarianza del conjunto.

    Visualizando el concepto con una imagen

    Una imagen digital no es más que una matriz de números, donde cada valor representa la intensidad del color (por ejemplo, del blanco al negro si es en escala de grises).

    Para este ejemplo usaremos el famoso dataset de rostros de celebridades incluido en scikit-learn.

    from sklearn.datasets import fetch_lfw_people
    import matplotlib.pyplot as plt
    
    # Cargamos el dataset de caras
    faces = fetch_lfw_people(min_faces_per_person=60)
    image = faces.images[0]
    
    plt.imshow(image, cmap='bone')
    plt.title(f"Ejemplo de imagen: {faces.target_names[0]}")
    plt.axis('off')
    plt.show()
    

    Cada imagen tiene 62 filas × 47 columnas, es decir, 2.914 píxeles o variables.
    PCA nos permitirá representar esta misma información con muchas menos variables.


    Aplicando PCA paso a paso

    PCA consiste básicamente en tres fases:

    1. Calcular la matriz de covarianza del conjunto de datos.
    2. Obtener sus autovectores y autovalores.
    3. Proyectar los datos sobre las direcciones asociadas a los autovalores más grandes, que contienen la mayor parte de la varianza.

    En código, podemos hacerlo así:

    from sklearn.decomposition import PCA
    import numpy as np
    
    # Aplanamos las imágenes 2D a vectores 1D
    X = faces.data
    
    # Aplicamos PCA para conservar solo 15 componentes principales
    pca = PCA(n_components=15)
    X_pca = pca.fit_transform(X)
    
    # Reconstruimos las imágenes desde los componentes principales
    X_reconstructed = pca.inverse_transform(X_pca)
    
    # Mostramos la imagen original y la reconstruida
    fig, axes = plt.subplots(1, 2, figsize=(8, 4))
    axes[0].imshow(X[0].reshape(62, 47), cmap='bone')
    axes[0].set_title("Imagen original")
    axes[0].axis('off')
    
    axes[1].imshow(X_reconstructed[0].reshape(62, 47), cmap='bone')
    axes[1].set_title("Reconstruida (15 componentes)")
    axes[1].axis('off')
    
    plt.show()
    

    ¿Qué estamos haciendo en realidad?

    Cada componente principal es un autovector de la matriz de covarianza.
    Cada uno representa una dirección en el espacio de datos donde la información cambia más.
    Los autovalores indican cuánta “varianza” explica cada componente.

    En este caso, al reconstruir la imagen con solo 15 componentes, vemos una versión algo borrosa, pero perfectamente reconocible. Hemos pasado de 2.914 variables a solo 15, manteniendo casi toda la información útil.

    Si reducimos a 5 componentes, la imagen pierde detalle; si aumentamos a 50, se ve casi igual que la original. Todo depende del equilibrio que queramos entre tamaño y fidelidad.


    Las “eigenfaces”

    Una de las formas más visuales de entender PCA en imágenes es observar los autovectores directamente. En este caso se les conoce como eigenfaces, o “caras propias”.

    Cada eigenface representa un patrón característico: sombras de ojos, contorno del rostro, luz lateral, expresión, etc.

    Podemos verlos así:

    fig, axes = plt.subplots(3, 5, figsize=(9, 6))
    for i, ax in enumerate(axes.flat):
        ax.imshow(pca.components_[i].reshape(62, 47), cmap='bone')
        ax.set_title(f"Comp {i+1}")
        ax.axis('off')
    plt.suptitle("Los 15 eigenfaces principales")
    plt.show()
    

    Los eigenvectores son, en el fondo, una forma de entender la estructura interna de los datos.

  • Eigenvectors y eigenvalues

    Verás que, aunque una transformación lineal cambia la dirección de la mayoría de los vectores, existen algunos vectores especiales que no rotan, solo se estiran o encogen.
    Esos vectores son los autovectores (eigenvector), y la cantidad por la que se estiran o encogen se llama autovalor (eigenvalues).

    Intuición: vectores que no cambian de dirección

    Imagina una matriz que representa una transformación lineal —por ejemplo, una matriz de “shear” (cizallamiento), que deforma un cuadrado en un paralelogramo.
    En la mayoría de los casos, todos los vectores cambian de dirección al aplicar la transformación… excepto algunos muy particulares. Esos vectores especiales mantienen su dirección (aunque pueden cambiar su longitud). Por eso decimos que son autovectores.

    Ejemplo de una transformación Lineal:

    import numpy as np
    
    M = np.array([[2, 1],
                  [1, 3]])
    
    square = np.array([[0, 0, 1, 1, 0],
                       [0, 1, 1, 0, 0]])
    transformed = M @ square
    Código de la grafica

    Código Python con Matplotlib

    fig, ax = plt.subplots(figsize=(8,8))
    ax.plot(square[0], square[1], 'b--', label='Original')
    ax.plot(transformed[0], transformed[1], 'r-', label=f'Shear con b={b}')
    
    ax.set_xlim(-1, 3)
    ax.set_ylim(-1, 3)
    ax.axhline(0, color='black')
    ax.axvline(0, color='black')
    ax.set_aspect('equal')
    ax.legend()
    plt.show()

    Definición

    Un vector \( \vec{v} \) es un autovector de una matriz \( M \) si, al aplicar la matriz transformadora sobre él, el resultado es el mismo vector escalado por un número \( \lambda \):

    $$M \vec{v} = \lambda \vec{v}$$

    Donde:

    • \( M \) → es una matriz cuadrada \(n \times n\)
    • \( \vec{v} \) → es un autovector
    • \( \lambda \) → es el autovalor asociado

    Este número \( \lambda \) indica cuánto se estira o encoge el vector cuando la matriz actúa sobre él.

    Interpretación geométrica

    • Si \( \lambda > 1 \): el vector se alarga.
    • Si \( 0 < \lambda < 1 \): el vector se encoge.
    • Si \( \lambda < 0 \): el vector cambia de sentido (se invierte).
    • Si \( \lambda = 1 \): el vector queda igual.

    Calculando los eigenvectors y eigenvalues

    Continuamos con el ejemplo inicial:

    import numpy as np
    
    # Calcular eigenvalores y eigenvectores
    w, V = np.linalg.eig(M)
    
    print("\nEigenvalores:\n", w)
    print("\nEigenvectores (columnas):\n", V)

    Salida:

    Eigenvalores:
     [1.38196601 3.61803399]
    
    Eigenvectores (columnas):
     [[-0.85065081 -0.52573111]
     [ 0.52573111 -0.85065081]]
    Código de la grafica

    Código Matplotlib

    import matplotlib.pyplot as plt
    fig, ax = plt.subplots(figsize=(8,8))
    
    # Cuadrado original (azul) y transformado (rojo)
    ax.plot(square[0], square[1], 'b--', label='Original (cuadrado unidad)')
    ax.plot(transformed[0], transformed[1], 'r-', label='Transformado M·S')
    
    # Ejes
    ax.axhline(0, color='black', linewidth=1)
    ax.axvline(0, color='black', linewidth=1)
    
    # Eigenvectores
    for i in range(len(w)):
        v = V[:, i]            # vector propio
        Mv = M @ v             # su transformación
        λ = w[i]
    
        # Dibuja el eigenvector (azul)
        ax.quiver(0, 0, v[0], v[1], angles='xy', scale_units='xy', scale=1,
                  color='blue', width=0.007, label=fr'$v_{i+1}$')
    
        # Dibuja el vector transformado (rojo)
        ax.quiver(0, 0, Mv[0], Mv[1], angles='xy', scale_units='xy', scale=1,
                  color='red', width=0.007, label=fr'$M v_{i+1} = \lambda_{i+1} v_{i+1}$')
    
        # Muestra texto con el eigenvalor
        ax.text(Mv[0]*1.1, Mv[1]*1.1, fr'$\lambda_{i+1}={λ:.2f}$', color='red', fontsize=10)
    
    ax.set_xlim(-4, 4)
    ax.set_ylim(-4, 4)
    ax.set_aspect('equal', adjustable='box')
    ax.legend(loc='upper left', facecolor='none', edgecolor='none')
    ax.set_title("Transformación lineal y Eigenvectores", fontsize=14)
    ax.set_xlabel("x")
    ax.set_ylabel("y")
    plt.grid(True)
    plt.show()
    

    Matrices simétricas

    Cuando una matriz es simétrica (es decir, \( M = M^T \)), se cumple algo muy útil:

    • Todos sus autovectores son perpendiculares entre sí.
    • Sus autovalores son reales.

    Por ejemplo:

    A = np.array([[4, 1],
                  [1, 4]])
    
    autovalores, autovectores = np.linalg.eig(A)
    print("Autovalores:", autovalores)
    print("Autovectores:\n", autovectores)
    
    print("Producto punto entre los autovectores:", np.dot(autovectores[:,0], autovectores[:,1]))

    La salida mostrará que el producto punto es 0, confirmando que los autovectores son ortogonales.

    Autovalores: [5. 3.]
    Autovectores:
     [[ 0.70710678 -0.70710678]
     [ 0.70710678  0.70710678]]
    Producto punto entre los autovectores: 0.0

    Aplicaciones en ciencia de datos

    Los eigenvectores y eigenvalores son fundamentales en data science:

    Análisis de Componentes Principales (PCA)

    • Qué hace: Reduce dimensiones de un dataset encontrando los eigenvectores de la matriz de covarianza.
    • Ejemplo: Dataset Iris (150×4) → eigenvectores indican las direcciones de mayor variación (ej: longitud vs ancho de pétalo).

    Redes Neuronales

    • Eigenvectores optimizan transformaciones en capas de redes profundas.
    • Ejemplo: Ajustar pesos para maximizar patrones.

    Procesamiento de Imágenes

    • Eigenvectores en eigenfaces identifican características faciales clave.
    • Ejemplo: Reconocimiento facial en apps de seguridad.

    Sistemas Dinámicos

    • Modelan cómo cambian datos con el tiempo (ej: predicciones financieras).
    • Eigenvalores determinan la estabilidad de los sistemas.

    Historia real: En 2024, Spotify usó eigenvectores en su sistema de recomendaciones para identificar patrones en gustos musicales, mejorando la precisión en un 10%.

    Cómo encontrar los Eigenvalues y Eigenvectors

    Para cualquier matriz \(M\):

    1. Primero encontramos todos los eigenvalores λ.
    2. Luego, usando esos eigenvalores, encontramos los eigenvectores correspondientes.

    La ecuación base \(M \vec{v} = \lambda \cdot \vec{v}\) será la clave de todo.

    Pero para trabajar con ella algebraicamente, vamos a transformarla un poco.

    La matriz identidad

    Necesitamos la matriz especial llamada la matriz identidad, que se denota por \(I\). La matriz identidad es una matriz cuadrada con unos en la diagonal principal (de arriba a la izquierda hasta abajo a la derecha) y ceros en todas las demás posiciones. Ya la vimos como ejemplo anteriormente en el articulo de las matrices.

    Por ejemplo, la matriz identidad de tamaño 3×3 es:

    $$I = \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1\end{bmatrix}$$

    Y se llama “identidad” porque, al multiplicarla por cualquier matriz o vector, el resultado es exactamente el mismo.

    Podemos decir que: \(I \cdot M = M\) y tambien que: \(I \cdot v = v\)

    Manipulamos la ecuación para llegar al sistema característico

    Volvamos a nuestra ecuación:

    $$M \vec{v} = \lambda \cdot \vec{v}$$

    Podemos escribir el lado derecho como \(\lambda I \cdot v\), ya que \(I \cdot v.\).

    Entonces la ecuación queda así:

    $$M \vec{v} = \lambda I \cdot \vec{v}$$

    Restamos el término del lado derecho en ambos lados:

    $$M \cdot \vec{v} \ – \lambda I \cdot \vec{v} = 0 $$

    Sacamos vvv como factor común (como si fuera un número):

    $$(M \ – \lambda I) \cdot \vec{v} = 0 $$

    Y esta ecuación es fundamental: se conoce como la ecuación característica.


    La condición de existencia de eigenvectores

    Esta ecuación tiene dos tipos de soluciones posibles:

    1. La trivial, cuando \(v=0\).
      Pero ese vector no nos dice nada (no tiene dirección ni longitud), así que lo descartamos.
    2. La no trivial, cuando \(v≠0\).
      Para que exista esta solución, debe cumplirse una condición especial.

    Recuerda una propiedad del álgebra lineal:

    Una ecuación de la forma \(A \cdot v=0\) solo tiene una solución no trivial \(v≠0\) si la matriz A es singular, es decir, su determinante es igual a cero.

    Aplicando esto a nuestra ecuación \((M \ – \lambda I) \cdot \vec{v} = 0 \), la condición será: \(det(M \ – \lambda I) \cdot \vec{v} = 0 \)

    Esta ecuación nos permitirá encontrar los valores de \( \lambda \), los eigenvalores.


    Interpretación geométrica: el área que se hace cero

    Detrás de todo esto hay una idea visual muy poderosa.

    Imagina que tienes una matriz \(M\) que transforma puntos del plano \(XY\). Puedes representarla como una transformación del cuadrado unitario (un cuadrado de lado 1 anclado en el origen).

    Cuando multiplicas \(M\) por las coordenadas de los vértices de ese cuadrado, obtienes un nuevo cuadrilátero. En general, este nuevo cuadrilátero es un paralelogramo.

    • Si \(M\) solo escala el cuadrado, obtienes un rectángulo.
    • Si además deforma el cuadrado (por ejemplo, en un cizallamiento), obtienes un paralelogramo inclinado.

    El área de ese paralelogramo es una medida de cuánto “estira” o “encoge” la transformación de \(M\).
    Y el determinante de la matriz está directamente relacionado con esa área.

    Cuando el determinante es cero, significa que la transformación ha colapsado el plano en una línea o un punto, es decir, ha perdido una dimensión. Eso ocurre exactamente cuando estamos en un eigenvalor, porque en ese caso el espacio queda “aplastado” en una dirección particular: la del eigenvector.


    Ejemplo visual con una matriz 2×2

    Imaginemos una matriz genérica \(M\) de 2×2:

    $$M = \begin{bmatrix} a & b \\ c & d \end{bmatrix}$$

    Y tomemos el cuadrado unitario cuyos vértices son (0,0), (1,0), (1,1) y (0,1).

    Cuando aplicamos \(M\) sobre esos puntos, el cuadrado se transforma en un paralelogramo cuyos vértices vienen dados por los productos matriciales:

    $$M \cdot S$$

    donde \(S\) contiene las coordenadas de los vértices del cuadrado.
    El área de ese nuevo paralelogramo se puede calcular directamente como:

    $$\text{Área} = ad – bc$$

    que es precisamente el determinante de \(M\).

    Así que cuando el determinante \(ad−bc=0\), el paralelogramo “se aplasta” y pierde área. Geométricamente, eso es lo que ocurre cuando hay un eigenvalor: la transformación ya no conserva el área y “colapsa” el espacio en una dirección.


    Cálculo con Python: encontrar los eigenvalores

    Ejemplo con matriz 2×2.

    $$M = \begin{bmatrix} 2 & 1 \\ 1 & 2 \end{bmatrix}$$

    M = np.array([[2, 1],
                  [1, 2]])

    Calculamos eigenvalores y eigenvectores

    eigenvalores, eigenvectores = np.linalg.eig(M)
    
    print("Matriz M:")
    print(M)
    
    print("\nEigenvalores:")
    print(eigenvalores)
    
    print("\nEigenvectores (por columnas):")
    print(eigenvectores)
    Eigenvalores:
    [1.38196601 3.61803399]
    
    Eigenvectores (por columnas):
    [[-0.85065081 -0.52573111]
     [ 0.52573111 -0.85065081]]

    Ejemplo con matriz 3×3.

    M3 = np.array([
        [4, -2, 1],
        [0, 3, -1],
        [0, 0, 2]
    ])
    
    eigenvalores3, eigenvectores3 = np.linalg.eig(M3)
    
    print("Matriz M3:")
    print(M3)
    
    print("\nEigenvalores:")
    print(eigenvalores3)
    
    print("\nEigenvectores (por columnas):")
    print(eigenvectores3)
    Matriz M3:
    [[ 4 -2  1]
     [ 0  3 -1]
     [ 0  0  2]]
    
    Eigenvalores:
    [4. 3. 2.]
    
    Eigenvectores (por columnas):
    [[1.         0.89442719 0.33333333]
     [0.         0.4472136  0.66666667]
     [0.         0.         0.66666667]]

  • Matrices: la estructura fundamental de los datos

    ¿Qué es una matriz?

    Si los vectores son puntos en un mapa, las matrices son el mapa completo: Una matriz es una cuadrícula de números organizada en filas y columnas. Puedes pensarla como un conjunto de vectores fila o vectores columna, dependiendo del caso.

    Matemáticamente, se escribe como un conjunto rectangular de números:

    $$ A = \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{bmatrix} $$

    Aquí la matriz \(A\) tiene 3 filas y 3 columnas, por lo tanto, su dimensión es \(3 \times 3\). Cada número dentro de la matriz se llama elemento, y se identifica por su posición:
    \(a_{ij}\) es el elemento que está en la fila i y la columna j.

    • Filas: 3 (cada una es un vector: \( [1, 2, 3], [4, 5, 6], [7, 8, 9]\))
    • Columnas: 3 (cada una es un vector: \([1, 4, 7], [2, 5, 8], [3, 6, 9]\))
    • Dimensión: \(3×3\) (filas x columnas)

    Dimensiones

    • Scalar

    $$a = 1$$

    • 1D Vector

    $$\vec{v} = \begin{bmatrix}1 \\ 2 \end{bmatrix}$$

    • 2D Matriz

    $$A = \begin{bmatrix}1 & 2 \\ 3 & 4 \end{bmatrix}$$

    • 3D Tensor

    $$T_{ijk} = \begin{bmatrix}[1 & 2] & [3 & 4] \\ [5 & 6] & [7 & 8]\end{bmatrix}$$

    Tipos de matrices

    • Matriz cuadrada: tiene el mismo número de filas y columnas \( (n \times n) \).
    • Matriz fila: una sola fila.
    • Matriz columna: una sola columna.
    • Matriz identidad: tiene 1 en la diagonal principal y 0 en el resto.
    • Matriz nula: todos los elementos son 0.

    La matriz identidad, por ejemplo, es clave porque actúa como el “1” de la multiplicación matricial:

    $$I = \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix} \quad \Rightarrow \quad A \cdot I = A$$

    Matrices como datos

    En ciencia de datos, todo lo que analizamos puede representarse con matrices:

    • Un dataset es una matriz donde cada fila es una observación y cada columna una variable.
    • Una imagen es una matriz de píxeles, y si es en color, es una matriz 3D , también llamado Tensor.
    • Una serie temporal puede representarse como una matriz con las variables en columnas y el tiempo en filas.

    Por ejemplo, una imagen en blanco y negro de 3×3 se puede representar así:

    $$ I =\begin{bmatrix}0 & 255 & 0 \\ 255 & 0 & 255 \\ 0 & 255 & 0\end{bmatrix}$$

    donde cada número representa la intensidad del color.

    Matrices como funciones

    También llamada Matrices Transformadoras, son matrices que actuan como una función que transforma datos.

    Una transformación lineal es una función que toma vectores como entrada y devuelve otros vectores como salida. Las transformaciones lineales pueden:

    • Estirar o encoger figuras (cambio de escala)
    • Girarlas (rotación)
    • Reflejarlas (simetría)
    • Aplanarlas (proyección)
    • Combinarlas (rotar + escalar, por ejemplo)

    Pero no pueden doblar, curvar, ni mover los puntos de forma no proporcional (eso sería una transformación no lineal).

    Por ejemplo, en geometría o visión por computador, una matriz de rotación de un ángulo \((\theta)\) es:

    $$R(\theta) = \begin{bmatrix}\cos \theta & -\sin \theta \\ sin \theta & \cos \theta \end{bmatrix}$$

    Aplicar esta matriz a un vector rota el punto alrededor del origen.

    Operaciones con Matrices

    Suma y resta de matrices

    Dos matrices se pueden sumar o restar solo si tienen el mismo tamaño. Se suman los elementos correspondientes:

    $$ A + B = \begin{bmatrix} a_11​+b_11 & a_12​+b_12​ \\ ​a_22​+b_22​​ & a_21​+b_21​​ \end{bmatrix}$$

    Multiplicación por un scalar

    Cada elemento de la matriz se multiplica por el número (escalar):

    $$ 2A = \begin{bmatrix} 2a_{11} & 2a_{12}​ \\ ​2a_{22}​​​ & 2a_{21​​​} \end{bmatrix}$$

    Producto de matrices

    El producto \(A \times B\) no se hace elemento a elemento. Se multiplica cada fila de \(A \) por cada columna de \(\)B \(\), y se suman los productos.

    $$(A \times B)_{ij} = \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} \begin{bmatrix} 5 & 6 \\ 7 & 8 \end{bmatrix}$$

    $$ = \begin{bmatrix} 1 \cdot 5 + 2 \cdot 7 & 1 \cdot 6 + 2 \cdot 8 \\ 3 \cdot 5 + 4 \cdot 7 & 3 \cdot 6 + 4 \cdot 8\end{bmatrix} $$

    $$ = \begin{bmatrix} 19 & 22 \\ 43 & 50 \end{bmatrix} $$

    Traspuesta de una matriz

    Se obtiene intercambiando filas por columnas:

    $$ A = \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} $$

    $$ A^T= \begin{bmatrix} 1 & 3 \\ 2 & 4 \end{bmatrix} $$

    Matriz identidad

    $$I = \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix} \quad \Rightarrow \quad A \cdot I = A$$


    Operaciones de Matrices con Python

    • Crear matrices con funciones convenientes, Numpy ofrece varias funciones para crear matrices comunes rapidamente:
    A = np.ones((3, 4))   # Matriz 3x4 llena de unos
    B = np.zeros((3, 3))  # Matriz 3x3 llena de ceros
    C = np.ones((2, 2)) * 4  # Matriz 2x2 llena de cuatros
    
    print("A:\n", A)
    print("B:\n", B)
    print("C:\n", C)
    A:
     [[1. 1. 1. 1.]
     [1. 1. 1. 1.]
     [1. 1. 1. 1.]]
    B:
     [[0. 0. 0.]
     [0. 0. 0.]
     [0. 0. 0.]]
    C:
     [[4. 4.]
     [4. 4.]]
    • Propiedad .shape: conocer las dimensiones de la matriz
    print(A.shape)
    (3, 4)
    • Indexación: acceder a elementos, fila y columnas
    M = np.array([[1, 2, 3],
                  [4, 5, 6]
                  [7, 8, 9]])
                  
    valor = M[4, 5]  # valor en la fila 5, columna 6 (Python indexa desde 0)
    fila = M[1, :]  # acceder a una fila completa
    columna = M[:, 2]  # acceder a una columna completa
    
    print(valor)
    print(fila)
    print(columna)
    6
    [4 5 6]
    [3 6 9]
    • Suma y resta de matrices
    C = A + B
    D = B - A
    • Multiplicación por escalar
    E = 3 * A
    • Producto de matrices
    C = A @ B
    # tambien se puede usar:
    np.dot(A, B)
    • Transpuesta de una matriz
    print("A^T =\n", A.T)
    • Matriz identidad
    I = np.eye(2)
    print("Matriz identidad:\n", I)
    
    print("A @ I =\n", A @ I)
    • Determinante y matriz inversa
    det_A = np.linalg.det(A)
    inv_A = np.linalg.inv(A)

    6. En resumen

    • Las matrices son la base del álgebra lineal y de los modelos de datos.
    • En Machine Learning, cada conjunto de entrenamiento es una gran matriz.
    • En visión por computador, las imágenes son matrices.
    • En análisis estadístico, las transformaciones de los datos se hacen con multiplicaciones matriciales.

    Por eso, entender cómo funcionan es esencial: todo modelo, por complejo que parezca, se reduce a operaciones con vectores y matrices.

  • Vectores: la brújula del álgebra lineal y la ciencia de datos

    Imagina que los datos son como puntos en un mapa. Un vector es la flecha que describe dónde está ese punto y cómo llegar a él. En data science, los vectores son la forma más básica y poderosa de representar datos, desde características de un cliente hasta píxeles en una imagen.

    El vector es el elemento fundamental y raíz de toda el algebra lineal.

    Los vectores no son solo un concepto matemático para escribir ecuaciones de forma concisa.
    También son herramientas fundamentales para codificar información compleja, desde posiciones y velocidades hasta fuerzas y movimientos en varias dimensiones.


    ¿Qué es un vector?

    Más allá de ser una lista ordenada de números, un vector puede pensarse como: cualquier cosa que tenga una dirección y una magnitud.

    Es una lista ordenada de números que describe una posición o característica en un espacio. En data science, cada vector representa un punto de datos y cada fila de tu dataset es un vector.

    Esta definición es la que usan los físicos. Por ejemplo:

    • Dirección: hacia dónde apunta el vector.
    • Magnitud: qué tan grande es, también llamada norma del vector.

    Ejemplos

    Supongamos que describes a una persona por su edad y salario:

    • Vector: \([25, 50000]\)
      • 25: Edad (en años)
      • 50000: Salario (en euros)

    Visualmente:

    • Un vector es una flecha en un plano:
      • Origen: \((0,0)\)
      • Punta: \((25, 50000)\)
    • En 2D, se ve como una línea desde el origen al punto.

    Dimensiones

    • 2D: \([x, y]\) (ej: edad, salario)
    • 3D: \([x, y, z]\) (ej: edad, salario, experiencia)
    • n-D: \([x₁, x₂, …, xₙ]\) (datasets con muchas columnas)

    De la Ecuación al Movimiento

    Imaginemos una pelota lanzada desde el origen que en términos de vectores seria la posición \((0,0)\) en un espacio bidimensional. La posición de la pelota en cada instante se puede codificar como un vector \( \mathbf{p} = (p_1, p_2) \), donde:

    • \(p_1 = 5\) representa la posición horizontal \(x\)
    • \(p_2 = 4\) representa la posición vertical \(y\).

    Así, en lugar de seguir las coordenadas de los ejes por separado, podemos usar un solo vector para describir la posición de la pelota.

    $$ \vec{p} = \begin{bmatrix}5\\4\end{bmatrix}$$

    Si representamos \(\vec{p}\)​ en un plano cartesiano, se vería como una flecha que parte del origen (0,0) y termina en (5,4). La flecha tiene una dirección (hacia dónde apunta) y una longitud, que nos dice qué tan lejos está el punto final del origen. Para graficar podemos utilizar ax.arrow() en Matplotlib.

    Código de la grafica

    Código en Python Matplotlib

    import matplotlib.pyplot as plt
    
    # Crear figura y ejes
    fig, ax = plt.subplots(figsize=(8, 8))
    
    # Dibujar el vector desde (0,0) hasta (5,4)
    ax.arrow(0, 0, 5, 4, head_width=0.3, head_length=0.4, fc='blue', ec='blue', linewidth=2)
    
    # Marcar el punto final del vector
    ax.plot(5, 4, 'o', markersize=6, color='blue')
    ax.plot(0, 0, 'o', markersize=6, color='blue')
    ax.text(5.6, 4, r"$\vec{v} = [5,\, 4]$", fontsize=14, color='blue')
    
    # Ejes centrados
    ax.spines['left'].set_position('zero')
    ax.spines['bottom'].set_position('zero')
    
    # Quitar bordes superior y derecho
    ax.spines['top'].set_visible(False)
    ax.spines['right'].set_visible(False)
    
    # Color y grosor de los ejes
    for spine in ['left', 'bottom']:
        ax.spines[spine].set_color('gray')
        ax.spines[spine].set_linewidth(1)
    
    # Límites y cuadrícula
    ax.set_xlim(-6, 8)
    ax.set_ylim(-6, 8)
    ax.grid(False)
    
    # Tamaño de los números de los ejes
    ax.tick_params(axis='both', which='major', labelsize=10)
    
    # Etiquetas y título
    ax.set_xlabel(r"$x$", fontsize=14, loc="right")
    ax.set_ylabel(r"$y$", fontsize=14, loc="top", rotation=0)
    ax.set_title("Vector", pad=20)
    
    # Guardar y mostrar
    plt.savefig("vector.png", transparent=True, dpi=300)
    plt.show()
    

    La norma (longitud del vector): cuánto ha viajado la pelota

    Esa longitud, también llamada norma, nos dice qué tan grande es el vector.
    Se denota con dos barras verticales, así: \( ||\mathbf{p}|| \) Para saber qué tan lejos está la pelota desde el origen, usamos la norma del vector:

    $$||\mathbf{p}|| = \sqrt{p_1^2 + p_2^2}$$

    Esta ecuación se deriva directamente del teorema de Pitágoras: la hipotenusa de un triángulo rectángulo es la raíz cuadrada de la suma de los cuadrados de sus catetos. Por ejemplo, si \(p_1 = 5\) y \(p_2 = 4\), la norma es:

    $$||\mathbf{p}|| = \sqrt{5^2 + 4^2} \approx 6.40$$

    La norma siempre da como resultado un número positivo: la distancia desde el origen hasta el punto final del vector.

    Vectores en dimensiones superiores

    Si la pelota se moviera en un espacio tridimensional, solo agregamos un componente más:

    $$\mathbf{p} = (p_1, p_2, p_3), \quad $$

    $$||\mathbf{p}|| = \sqrt{p_1^2 + p_2^2 + p_3^2}$$

    Y si tuviéramos un vector en \(N\) dimensiones, simplemente añadimos cada componente al cálculo de la norma:

    $$||\mathbf{p}|| = \sqrt{p_1^2 + p_2^2 + \dots + p_N^2}$$

    Esto hace que los vectores sean muy poderosos para manejar información compleja de manera compacta.

    Aplicaciones de los vectores en física

    Los vectores nos permiten representar de manera eficiente:

    • Posición: dónde se encuentra un objeto.
    • Velocidad: dirección y rapidez del movimiento.
    • Fuerza: hacia dónde actúa y cuán intensa es.

    Además, con operaciones como suma, resta, multiplicación por escalar o producto punto, podemos combinar vectores y calcular efectos resultantes de manera simple.

    Por ejemplo, en nuestra pelota de béisbol, un vector nos permite:

    • Conocer simultáneamente su posición en \(x\) y \( y\) ,
    • Medir su distancia desde el punto de lanzamiento con la norma,
    • Y si quisiéramos incluir velocidad o aceleración, usar vectores de mayor dimensión para mantener todo compacto y manejable.

    Dos propiedades clave de un vector

    1. Dirección: hacia dónde apunta.
    2. Magnitud: cuán grande es, calculable con la norma.

    En cualquier número de dimensiones, esta regla sigue siendo válida, lo que convierte a los vectores en herramientas universales para describir información física y multidimensional.

    Operaciones con Vectores

    Los vectores son poderosos porque puedes operarlos para descubrir patrones. Aquí las operaciones más importantes:

    Suma de Vectores

    si tenemos dos vectores de la misma dimensión:

    $$ \vec{u} = \begin{bmatrix}u_1\\u_2\\u_3\end{bmatrix}, \vec{v} = \begin{bmatrix}v_1\\v_2\\v_3\end{bmatrix}$$

    La suma es simplemente sumar cada componente correspondiente:

    $$ \vec{u} + \vec{v}= \begin{bmatrix}u_1+v_1\\u_2+v_2\\u_3+v_3\end{bmatrix}$$

    Esto es útil porque cuando sumamos vectores estamos combinando información de manera ordenada, igual que antes combinábamos cantidades de manzanas, naranjas y pan. La suma de vectores es la primera forma de “agrupar información” en un vector.

    Multiplicación por Escalar

    Si tenemos un número \(k\) y un vector \(\vec{v}\), multiplicamos cada componente por ese número:

    $$ k \cdot \vec{v}= k \cdot \begin{bmatrix}v_1\\v_2\\v_3\end{bmatrix} = \begin{bmatrix}kv_1\\kv_2\\kv_3\end{bmatrix}$$

    Esto sirve para escalar vectores, como cuando queremos “duplicar” o “reducir” una cantidad.

    Producto Escalar (Dot Product)

    Dot Product: Mide la similitud entre dos vectores.

    El producto escalar es una operación entre dos vectores que produce un número, a diferencia de la suma o resta de vectores, que produce otro vector.

    Si tenemos dos vectores de la misma dimensión:

    $$ \vec{a} = \begin{bmatrix}a_1\\a_2\\.\\.\\.\\a_n\end{bmatrix}, \vec{b} = \begin{bmatrix}b_1\\b_2\\.\\.\\.\\b_n\end{bmatrix}$$

    el producto punto se define como:

    $$ \vec{a} \cdot \vec{b} = a_1b_1 + a_2b_2 + . . . + a_nb_n$$

    O, lo que es lo mismo:

    $$ \vec{a} \cdot \vec{b} = \sum ^{n} _ {i=1} a_ib_i$$

    Cada componente se multiplica componente por componente, y luego se suman los resultados.

    Ejemplo:

    Supongamos que tienes un presupuesto de $30 y quieres comprar: manzanas, naranjas y peras.

    Definimos:

    • Vector de cantidades compradas

    $$ \vec{g} = \begin{bmatrix}g_1\\g_2\\g_3\end{bmatrix} = \begin{bmatrix}4\\3\\2\end{bmatrix} $$

    • Vector de precios de productos:

    $$ \vec{c} = \begin{bmatrix}c_1\\c_2\\c_3\end{bmatrix} = \begin{bmatrix}2\\3\\5\end{bmatrix}$$

    Entonces, el total gastado se puede escribir como:

    $$ Total= \vec{c} \cdot \vec{g} $$

    $$ T= c_1g_1 + c_2g_2 + c_3g_3 $$

    $$ T = 2⋅4+3⋅3+5⋅2$$

    $$ T =8+9+10=27$$

    Interpretación geométrica

    Geométricamente, el producto punto mide cuánto se parecen o se alinean dos vectores en dirección:

    $$\vec{a} \cdot \vec{b} = ||\vec{a}|| ||\vec{b}||cos⁡(θ)$$

    • Si \(θ=0°\): los vectores están en la misma dirección → producto punto positivo y máximo.
    • Si \(θ=90°\): son perpendiculares → producto punto = 0.
    • Si \(θ>90°\): apuntan en direcciones opuestas → producto punto negativo.

    Esto significa que el producto punto mide cuánto “apuntan en la misma dirección” dos vectores.

    Usos del producto escalar el data science

    • Similitud de vectores (cosine similarity): En NLP, sistemas de recomendación o embeddings de palabras. Cuanto mayor sea este valor, más similares son los vectores.
    • Regresión lineal / Neuronas : Calcula la combinación lineal de las variables
    • Similitud del coseno : Mide cuánto se parecen dos vectores
    • PCA / Proyecciones : Proyecta un vector sobre una dirección
    • Distancias : Base para métricas vectoriales
    • Álgebra de matrices : Operación elemental en multiplicación de matrices

    Operaciones de vectores con Python

    Los vectores en Python manejan con Numpy y se representan como listas:

    A = np.array([1, 2, 3, 4])
    B = np.arange(6, 10)

    Suma de vectores

    C = A + B
    print(C)

    Producto punto

    np.dot(A, B)

    Norma del vector

    np.linalg.norm(A)

  • Ecuaciones Lineales


    ¿Por Qué las Ecuaciones Lineales Son Clave en Data Science?

    Las ecuaciones lineales y los sistemas lineales son como el esqueleto de la data science. Son la base de algoritmos como la regresión lineal, los sistemas de recomendación y el análisis de datos en general. Imagina que cada punto de datos es una pieza de un rompecabezas: las ecuaciones lineales te ayudan a juntar las piezas para descubrir patrones.

    «Sin ecuaciones lineales, no habría machine learning moderno. Son el primer paso para transformar datos en decisiones.»

    ¿Qué es una Ecuación Lineal?

    Una ecuación lineal es una ecuación donde las variables están elevadas a la potencia 1 y multiplicadas por un coeficiente (no hay cuadrados ni raíces) y se combinan con sumas o restas.

    Ejemplo Simple

    $$3x + 2y = 30$$

    Como concepto esta bien. ¿pero cual es el sentido de esto? ¿de donde sale? La idea base de la ecuación lineal es una relación constante entre dos cosas. La ecuación lineal nace cuando dos magnitudes cambian de forma proporcional.

    Por ejemplo:

    Si vendes café a 2€ cada uno, el ingreso total depende linealmente del numero de cafés vendidos.

    $$Ingreso = 2 \times \text{Número de cafés}$$

    Esto puede escribirse matemáticamente como

    $$y = 2x$$

    Donde:

    • xy: Variables (Ingreso, Café.)
    • 2: Coeficientes (pesos de las variables)

    Esa es una relación lineal: cada vez que \(x\) aumenta 1, \(y\) aumenta 2. La tasa de cambio es constante. Visualmente esta ecuación representa una línea recta en un plano. Cada solución \((x, y)\) es un punto en esa línea.

    De ahí el nombre de lineal, porque describe una relación que se representa como una línea recta en un gráfico. Las ecuaciones lineales modelan situaciones donde:

    • el cambio es constante,
    • la relación entre variables es directa o proporcional.

    Por eso son la base de la modelización matemática, antes de llegar a modelos más complejos, todo empieza por asumir una relación lineal.

    Representar las ecuaciones

    En la forma general o modelo pendiente e intersección, toda ecuación lineal puede escribirse así:

    $$y=mx+b$$

    Donde:

    • \(b\) –> es el valor inicial o intersección con el eje Y: el valor de \(y\) cuando \(x=0\).
    • \(y\) –> valor en el eje vertical (dependiente)
    • \(x\) –> valor en el eje horizontal (independiente)
    • \(m\) –> es la pendiente, cuánto cambia \(y\) cuando \(x\) aumenta una unidad.
      • Si \(m > 0\) –> sube hacia la derecha (creciente)
      • Si \(m < 0\) –> baja hacia la derecha (decreciente)
      • Si \(m = 0\) –> la recta es horizontal
    grafica con los tipos de pendientes
    Código de la grafica

    Código Python con Matplotlib

    import matplotlib.pyplot as plt
    fig, ax = plt.subplots(figsize=(8,8))
    ax.axline((0, 1), slope=2, color="red", linewidth=1, label="Creciente")
    ax.axline((0, -1), slope=-3, color="green", linewidth=1, label="Decreciente")
    ax.axline((0, 3), slope=0, color="blue",linewidth=1, label="Horizontal")
    
    # Ejes en el centro
    ax.spines['left'].set_position('zero')   # eje Y en x=0
    ax.spines['bottom'].set_position('zero') # eje X en y=0
    
    # Quitar bordes superior y derecho
    ax.spines['top'].set_visible(False)
    ax.spines['right'].set_visible(False)
    
    # Cambiar color y grosor de los ejes (spines)
    for spine in ['left', 'bottom']:
        ax.spines[spine].set_color('black')
        ax.spines[spine].set_linewidth(2)
    
    # Límites y cuadrícula
    ax.set_xlim(-10, 10)
    ax.set_ylim(-10, 10)
    
    # tamaño de los numeros
    ax.tick_params(axis='both', which='major', labelsize=10)
    
    # Etiquetas y leyenda
    ax.set_xlabel(r"$x$", fontsize=14, loc="right")
    ax.set_ylabel(r"$y$", fontsize=14, loc="top", rotation=0)
    ax.legend()
    ax.set_title("Tipos de pendientes", pad=20)
    ax.legend(facecolor='none', edgecolor='none')
    ax.grid(False)
    plt.savefig("pendientes.png", transparent=True, dpi=300)
    plt.show()

    ¿Por qué las pendientes siempre avanzan a la derecha?

    Esto tiene que ver con cómo definimos el sistema de coordenadas cartesianas y el concepto de pendiente. Vamos a desglosarlo paso a paso:

    1. La pendiente mide cuánto cambia \(y\) cuando \(x\) cambia una unidad.
    2. Cuando calculamos la pendiente avanzamos de izquierda a derecha en el eje \(x\).
    3. Entonces la pendiente se interpreta como el cambio vertical que ocurre al movernos a la derecha.
    4. Por eso, al dibujar la recta, decimos que “avanza a la derecha” y sube o baja según \(x\).
    5. Si quisieras avanzar a la izquierda, sería simplemente \(x<0\) y la pendiente seguiría siendo la misma, solo que la “mirada” sería desde el otro extremo.

    En otras palabras: no es que la recta no exista hacia la izquierda, sino que matemáticamente la pendiente se mide tomando \(Δx\) (variación de x) positivo, lo que corresponde a moverse hacia la derecha.

    El sentido algebraico: equilibrio

    Desde el punto de vista algebraico, una ecuación es una igualdad entre dos expresiones que mantiene un equilibrio. Una ecuación lineal representa un equilibrio simple, sin potencias ni productos entre variables:

    $$2x+3y=30$$

    Significa que existen valores de \(x\) y \(y\) para los cuales la expresión de la izquierda \(2x+3y\)) tiene el mismo valor que el número de la derecha (30).

    • Cada punto \((x,y)\) que cumple esa igualdad está en equilibrio: pertenece a la recta.
    • Ambos lados deben ser iguales para que la ecuación se cumpla.
    • Una ecuación representa una condición de equilibrio o una restricción sobre los valores posibles de las variables.

    Desde el punto de vista algebraico, lo que hacemos con una ecuación es buscar los valores de las variables que la hacen verdadera. A eso lo llamamos resolver la ecuación. En este caso: \(2x+3y=30\) no tiene una única solución, sino infinitas combinaciones de \((x,y)\) que cumplen la igualdad (todas las que están sobre la recta).

    Si representamos todos los puntos \((x,y)\) que cumplen esa ecuación, obtenemos una recta en el plano cartesiano. Así, una ecuación lineal de dos variables es la expresión algebraica de una recta.

    Ejemplo: Ecuación linear de las frutas

    Un problema clásico seria resolver cuantas manzanas y naranjas podemos comprar con 30€, donde las manzanas tienen un precio de 2€ y las naranjas de 3€. (Supón que puedes fraccionar las frutas).

    Este problema se resuelve con un ecuación lineal que se representa como sigue:

    $$2x + 3y = 30$$

    Donde:

    • 2 y 3 –> son los coeficientes (precios de las frutas)
    • \(x\)–> variable que representa las manzanas
    • \(y\) –> variable que representa las naranjas
    • 30 –> es el termino independiente (la constante)

    Representamos la ecuación en la forma general \(y=mx+b\):

    $$3y = -2x + 30$$

    Pasamos el 3 dividiendo y calculamos:

    $$y = \frac{2}{3}x – \frac{30}{3}$$

    $$y = -\frac{2}{3}x + 10$$

    Aquí tenemos:

    • \(m = – \frac{2}{3}\) –> pendiente de la recta.
    • \(b = 10\) –> la ordenada en el origen, o sea el punto donde la recta corta el eje Y.
    • Cuando \(x=0\): \(y=10\) –> la recta pasa por el punto \((0, 10)\).
    • Cuando \(y=0\): \(x=15\) → la recta pasa por el punto (15, 0):

    $$2x + 3y = 30$$

    $$2x + 3(0) = 30$$

    $$2x = 30$$

    $$2x = \frac{30}{2}$$

    $$x = 15$$

    Entonces tenemos ya dos puntos \((0,10)\) y \((15,0)\). Con estos dos puntos podemos trazar una recta que representa la ecuación. Cada punto en la recta, es una combinación de manzanas(\(x\)) y naranjas (\(y\)) que equivalen a una compra de 30€.

    Podemos calcular mas combinaciones de frutas posibles eligiendo los valores de \(x\) y calculando \(y\) en la ecuación de la forma pendiente – intersección.

    Por ejemplo, si \(x = 6\):

    $$y = – \frac{2}{3}x + 10$$

    $$y = – \frac{2}{3}(6) + 10$$

    $$y = – \frac{12}{3} + 10$$

    $$y = – 4 + 10 = 6$$

    Otra combinación de frutas y punto en la grafica seria \((6,6)\). Representemos gráficamente la ecuación.

    Código de la grafica

    Código Python de Matplotlib

    import matplotlib.pyplot as plt
    fig, ax = plt.subplots(figsize=(8,8))
    ax.axline((0, 10), slope=-2/3, color="red", linewidth=2, label=r"$y = -\frac{2}{3}x + 10$")
    
    # Puntos específicos
    puntos = [(15,0), (0,10), (6,6)]
    for x, y in puntos:
        ax.plot(x, y, 'ko', markersize=6)              # dibujar punto
        ax.text(x + 0.5, y + 0.5, f"({x},{y})", fontsize=10, color='black')
    
    # Ejes en el centro
    ax.spines['left'].set_position('zero')   # eje Y en x=0
    ax.spines['bottom'].set_position('zero') # eje X en y=0
    
    # Quitar bordes superior y derecho
    ax.spines['top'].set_visible(False)
    ax.spines['right'].set_visible(False)
    
    # Cambiar color y grosor de los ejes (spines)
    for spine in ['left', 'bottom']:
        ax.spines[spine].set_color('black')
        ax.spines[spine].set_linewidth(2)
    
    # Límites y cuadrícula
    ax.set_xlim(-20, 20)
    ax.set_ylim(-20, 20)
    
    # tamaño de los numeros
    ax.tick_params(axis='both', which='major', labelsize=10)
    
    # Etiquetas y leyenda
    ax.set_xlabel(r"$x$", fontsize=14, loc="right")
    ax.set_ylabel(r"$y$", fontsize=14, loc="top", rotation=0)
    ax.legend()
    ax.set_title("Grafica de la Ecuación", pad=20)
    ax.legend(facecolor='none', edgecolor='none')
    ax.grid(False)
    plt.savefig("ecuacion de las frutas.png", transparent=True, dpi=300)
    plt.show()

    Este sencillo problema de manzanas y naranjas nos muestra cómo las ecuaciones lineales nos permiten modelar relaciones entre variables de manera clara y predecible. Cada punto en la recta representa una combinación posible que satisface la restricción del problema (gastar 30 €), y la pendiente nos indica cómo cambiaría una variable si ajustamos la otra.

    En ciencia de datos y machine learning, este mismo concepto es fundamental: buscamos modelar relaciones entre variables para poder predecir, optimizar o tomar decisiones basadas en datos.


    Sistemas Lineales

    Un sistema lineal es un conjunto de ecuaciones lineales que resuelves juntas para encontrar valores que satisfagan todas.

    Supongamos que a nuestro problema anterior le añadimos una condición. Supón ahora que además de gastar 30 €, queremos comprar exactamente 12 frutas en total. Esa nueva condición se traduce en otra ecuación:

    $$x + y = 12$$

    Ahora tenemos dos ecuaciones y dos incógnitas \((x, y)\).

    $$\begin{cases} 2x + 3y = 30 \\ x + y = 12 \end{cases}$$

    Aquí, cada ecuación representa una recta en el plano cartesiano. El punto donde ambas rectas se cruzan es la combinación de frutas que cumple las dos condiciones al mismo tiempo: gastar 30 € y comprar exactamente 12 frutas. Existen varios métodos de resolver los sistemas de ecuaciones.

    Método 1: Sustitución:

    1. Despeja una variable en una ecuación.
    2. Sustitúyela en la otra ecuación.
    3. Resuelve.

    Cuándo usarlo: Sistemas pequeños (2-3 ecuaciones).

    De la segunda ecuación despejamos \(x\) y sustituimos en la primera.

    $$x + y = 12$$

    $$x = 12 – y$$

    Sustituimos en la primera ecuación:

    $$2(12−y) + 3y = 30$$

    $$24− 2y + 3y = 30$$

    $$24 − 2y + 3y = 30$$

    $$24 + y = 30$$

    $$24 + y = 30$$

    $$y = 30 – 24 = 6$$

    Ahora sustituimos \(y\) en la segunda:

    $$x + y = 12$$

    $$x + 6 = 12$$

    $$x = 12 – 6 = 6$$

    Resultado: \(x=6,y=6\), o sea 6 manzanas y 6 naranjas. En el grafico el punto de intersección de las rectas es \((6,6)\).

    Con Matplotlib podemos graficar la recta solo con la pendiente y la intersección. En este caso para la segunda ecuacion \(m = -1\) y \(b = 12\) .

    Código del grafico

    Código Python de Matplotlib

    import matplotlib.pyplot as plt
    fig, ax = plt.subplots(figsize=(8,8))
    ax.axline((0, 10), slope=-2/3, color="red", linewidth=2, label=r"$y = -\frac{2}{3}x + 10$")
    ax.axline((0, 12), slope=-1, color="blue", linewidth=2, label=r"$y = -x + 12$")
    
    # Puntos específicos
    ax.plot(6, 6, 'ko', markersize=6)              # dibujar punto
    ax.text(x + 0.5, y + 0.5, f"({6},{6})", fontsize=10, color='black')
    
    # Ejes en el centro
    ax.spines['left'].set_position('zero')   # eje Y en x=0
    ax.spines['bottom'].set_position('zero') # eje X en y=0
    
    # Quitar bordes superior y derecho
    ax.spines['top'].set_visible(False)
    ax.spines['right'].set_visible(False)
    
    # Cambiar color y grosor de los ejes (spines)
    for spine in ['left', 'bottom']:
        ax.spines[spine].set_color('black')
        ax.spines[spine].set_linewidth(2)
    
    # Límites y cuadrícula
    ax.set_xlim(-20, 20)
    ax.set_ylim(-20, 20)
    
    # tamaño de los numeros
    ax.tick_params(axis='both', which='major', labelsize=10)
    
    # Etiquetas y leyenda
    ax.set_xlabel(r"$x$", fontsize=14, loc="right")
    ax.set_ylabel(r"$y$", fontsize=14, loc="top", rotation=0)
    ax.legend()
    ax.set_title("Grafica de la Ecuación", pad=20)
    ax.legend(facecolor='none', edgecolor='none')
    ax.grid(False)
    plt.savefig("sistemas_de_ecuaciones.png", transparent=True, dpi=300)
    plt.show()

    Formato Matricial

    La expresión general:

    $$y=a_1​x_1​+a_2​x_2​+⋯+a_n​x_n​$$

    Es el punto de partida que lleva directamente a la forma matricial de los sistemas lineales. El mismo sistema de ecuaciones de las frutas puede escribirse y resolverse en forma matricial. En la ciencia de datos los datasets son matrices, y resolver sistemas lineales ayuda a encontrar relaciones entre variables.

    Partimos del sistema:

    $$\begin{cases} 2x + 3y = 30 \\ x + y = 12 \end{cases}$$

    En formato matricial:

    $$\begin{bmatrix} 2 & 3 \\ 1 & 1 \end{bmatrix} \begin{bmatrix} x \\ y \end{bmatrix} = \begin{bmatrix} 30 \\ 12 \end{bmatrix}$$

    Significado de las partes:

    PartesSignificado
    $$\begin{bmatrix} 2 & 3 \\ 1 & 1 \end{bmatrix}$$Matriz de coeficientes: contiene los números que multiplican a las variables (los precios de las frutas).
    $$\begin{bmatrix} x \\ y \end{bmatrix}$$Vector de incógnitas: las variables que queremos encontrar (número de manzanas y naranjas).
    $$\begin{bmatrix} 30 \\ 12 \end{bmatrix}$$Vector de resultados: los valores en el lado derecho (total de dinero y total de frutas).

    La forma vectorial compacta del sistema matricial se expresa como:

    $$A\vec{x} = \vec{b}$$

    Donde:

    • \(A\) –> es la matriz de coeficientes
    • \(\vec{x}\) –> es el vector de incógnitas
    • \(\vec{b}\) –> es el vector de términos independientes

    Por tanto:

    $$A = \begin {bmatrix} 2 & 3 \\ 1 & 1 \end{bmatrix}, \vec{x} = \begin{bmatrix} x \\ y \end{bmatrix}, \vec{b} = \begin{bmatrix} 30 \\ 12 \end{bmatrix}$$

    En ciencia de datos y machine learning esta forma es fundamental porque:

    • Permite expresar relaciones entre miles de variables en una sola ecuación.
    • Es la base de la regresión lineal, la reducción de dimensionalidad, y el entrenamiento de modelos.
    • Toda la manipulación se hace con álgebra matricial, que es más eficiente computacionalmente.

    Método 2: Matriz inversa

    • Determinar si la matriz \(A\) tiene inversa (es decir, su determinante es distinto de cero)
    • Aislar el vector de incógnitas \(\vec{x}\).
    • La forma de hacerlo no es dividiendo, porque no existe la división entre matrices, sino multiplicando por su inversa, denotada \(A^{-1}\).

    La ecuación de matriz inversa:

    $$\vec{x} = A^{-1} \vec{b}$$

    Resolviendo el sistema

    Para una matriz de dos ecuaciones como la del ejemplo:

    $$A = \begin{bmatrix} d & b \\ c & a \end{bmatrix}$$

    Determinar su inversa es:

    $$A^{-1} = \frac{1}{ad – bc} \begin{bmatrix} d & -b \\ -c & a \end{bmatrix}$$

    Entonces:

    $$A^{-1} = \frac{1}{(2)(1) – (3)(1)} \begin{bmatrix} 1 & -3 \\ -1 & 2 \end{bmatrix}$$

    $$A^{-1} = \frac{1}{-1}\begin{bmatrix} 1 & -3 \\ -1 & 2 \end{bmatrix}$$

    $$A^{-1} = \begin{bmatrix} -1 & 3 \\ 1 & -2 \end{bmatrix}$$

    • Este método solo funciona si \(A\) tiene inversa, lo que ocurre solo si el determinante de es distinto de cero, como en este caso.

    Paso final

    $$ \vec{x} = A^{-1}\vec{b}$$

    $$\vec{x}=\begin{bmatrix} -1 & 3 \\ 1& -2\end{bmatrix} \begin{bmatrix} 30 \\ 12 \end{bmatrix}$$

    $$\vec{x} = \begin{bmatrix} (-1)(30) + (3)(12) \\ (1)(30) + (-2)(12) \end{bmatrix}$$

    $$\vec{x} = \begin{bmatrix} -30 + 36 \\ 30 – 24 \end{bmatrix} = \begin{bmatrix} 6 \\ 6 \end{bmatrix}$$

    Resultado:

    $$x = 6 \\ y = 6$$

    Hay algunas operaciones básicas que usaremos constantemente:

    • Transposición (Aᵗ) → cambia filas por columnas.
    • Multiplicación de matrices (A·B) → combina vectores o sistemas.
    • Determinante (det(A)) → indica si el sistema tiene solución única.
    • Matriz inversa (A⁻¹) → nos permite resolver sistemas como \(x=A−1bx = A^{-1} bx=A−1b\).

    Estas herramientas son la base de muchos algoritmos modernos de machine learning y análisis de datos.

    Forma de la Matriz Aumentada

    La matriz aumentada es otra forma de representar un sistema de ecuaciones lineales, pero con un propósito muy concreto: resolverlo más fácilmente mediante operaciones por filas (como en el método de Gauss o Gauss-Jordan). Contiene toda la información numérica del sistema. Trabajar con ella evita reescribir las variables en cada paso.

    La matriz aumentada junta la matriz de coeficientes \(A\) y el vector de términos independientes \(\vec{b}\) en una sola matriz separada por una línea vertical:

    $$\begin{bmatrix}\begin{array}{cc|c}2 & 3 & 30 \\ 1 & 1 & 12 \end{array} \end{bmatrix}$$

    Esa barra vertical no tiene significado algebraico en sí, simplemente marca la frontera entre los coeficientes del sistema y los resultados.

    Método 3: Eliminación Gaussiana

    El objetivo de la eliminación es transformar esa matriz con operaciones por filas hasta una forma en la que las variables se lean directamente.
    Las operaciones permitidas (elementales por filas) son:

    1. Intercambiar dos filas.
    2. Multiplicar una fila por un escalar distinto de 0.
    3. Sumar a una fila un múltiplo de otra fila.

    Estas operaciones no cambian el conjunto de soluciones del sistema: son equivalencias algebraicas.

    Paso 1 — Elegir pivote (y, opcionalmente, intercambiar filas)

    En esta parte normalmente queremos que el primer elemento de la primera fila (posición (1,1)) sea un buen pivote (idealmente 1 y no 0). En nuestro caso la fila 2 ya tiene un 1 en la columna 1, así que intercambiamos las filas para facilitar cálculos:

    Operacion \(R_1 \leftrightarrow R_2\) (Row1 y Row2)

    $$\begin{bmatrix}\begin{array}{cc|c} 1 & 1 & 12 \\ 2 & 3 & 30 \end{array} \end{bmatrix}$$

    Paso 2 — Eliminar la variable \(x\) de las filas inferiores

    Qué se hace: queremos que en la columna del pivote (columna 1) todos los elementos excepto el pivote sean 0. Si el pivote fuese 0 habría que intercambiar filas para evitar dividir por 0.

    Elegimos multiplicar por 2 porque ese número es precisamente lo necesario para que, al restarlo, el coeficiente 2 de la fila 2 quede anulado \((2 − 2 = 0)\).

    Operación :\(R_2 \leftarrow R_2 – 2R_1\)

    Multiplicación de la fina 1 por 2:

    $$\begin{bmatrix}\begin{array}{cc|c} 2 & 2 & 24 \end{array} \end{bmatrix}$$

    Resta la fila multiplicada a la segunda, resultado:

    $$\begin{bmatrix}\begin{array}{cc|c} 1 & 1 & 12 \\ 0 & 1 & 6 \end{array} \end{bmatrix}$$

    • Al hacer esa resta estamos eliminando \(x\) de la segunda ecuación.
    • Esto reduce el sistema a uno triangular superior, que es más fácil de resolver.
    • La segunda fila ahora es \(0x+1y=6\), es decir \(y=6\). Hemos aislado una variable.

    Paso 3 — Resolver la última ecuación (retro-sustitución) o diagonalizar (Gauss–Jordan)

    Ya tenemos el valor de \(y=6\), si usamos retro-sustitucion

    Retro-sustitución para obtener \(x\) sustituyendo y en la primera ecuación:

    $$x+y=12x \rightarrow x + 6 = 12 \rightarrow \\ x = \frac{12}{6} \rightarrow x=6$$

    Solución por Gaus-Jordan

    Eliminamos el \(y\) en la primera fila:

    $$\begin{bmatrix}\begin{array}{cc|c} 1 & 1 & 12 \\ 0 & 1 & 6 \end{array} \end{bmatrix}$$

    Resultado:

    $$\begin{bmatrix}\begin{array}{cc|c} 1 & 0 & 6 \\ 0 & 1 & 6 \end{array} \end{bmatrix} \rightarrow x = 6 , y = 6$$

    Comprobación

    Comprobación en las ecuaciones originales:

    $$2x+3y=2(6)+3(6)\\ =12+18=30$$

    $$x+y=6+6=12$$

    Aplicaciones en Data Science

    La generalización del sistema lineal en una matriz aumentada es muy importante porque los modelos lineales en ciencia de datos funcionan exactamente igual:

    $$\vec{y} = A\vec{w} + \vec{ε}$$

    donde:

    • \(A\) es la matriz de datos (cada fila una observación, cada columna una variable)
    • \(\vec{w}\) son los pesos o coeficientes del modelo (lo que queremos estimar),,
    • \(\vec{y}\)​ son los valores observados o predichos.
    • \(\vec{ε}\) representa los errores o diferencias entre la predicción y los datos reales.

    Esa es exactamente la forma que adoptan los modelos lineales en ciencia de datos y machine learning.

    Resolver el sistema equivale a encontrar los valores de \(\vec{w}\) que mejor explican o ajustan los datos. Por eso, las ecuaciones lineales y su resolución matricial son la base matemática de muchos algoritmos de Machine Learning.


    Ecuaciones Lineales con Python

    Python hace que resolver sistemas lineales sea fácil y rápido con NumPy. Vamos a hacerlo de forma didáctica, con el mismo ejemplo de las frutas (dos ecuaciones, dos incógnitas), y luego generalizamos a más variables.

    El sistema del ejercicio de las frutas en formas matricial compacta se expreso como:

    $$A = \begin{bmatrix} 2 & 3 \\ 1 & 1 \end{bmatrix}, \vec{b} = \begin{bmatrix} 30 \\ 12 \end{bmatrix}$$

    Resolver el sistema con NumPy:

    import numpy as np
    
    # Definimos la matriz de coeficientes y el vector de resultados
    A = np.array([[2, 3],
                  [1, 1]])
    
    b = np.array([30, 12])
    
    # Resolver el sistema A x = b
    x = np.linalg.solve(A, b)
    
    print("Solución (x, y):", x)
    Solución (x, y): [6. 6.]

    Comprobar el resultado:

    # Verificamos A @ x = b
    print("Comprobación:", A @ x)
    Comprobación: [30. 12.]

    Usando la inversa de la matriz (método alternativo)

    Este método no se recomienda en práctica cuando hay muchas variables, porque calcular la inversa directamente es más costoso y menos estable numéricamente.

    A_inv = np.linalg.inv(A)
    x_alt = A_inv @ b
    
    print("Solución con A^-1:", x_alt)
    Solución con A^-1: [6. 6.]

  • Fundamentos Matemáticos para la Ciencia de Datos: Guía Introductoria

    Comprender los principios que sustentan el análisis y la inteligencia artificial

    En el ecosistema actual de la Ciencia de Datos, donde confluyen la estadística, la programación y el conocimiento del dominio, las matemáticas ocupan un lugar central. Son el lenguaje que permite describir, modelar y comprender los fenómenos que los datos representan.

    Sin una base matemática sólida, la práctica del análisis de datos corre el riesgo de reducirse a la mera aplicación mecánica de algoritmos, sin entender las razones detrás de sus resultados. Por el contrario, dominar los fundamentos matemáticos otorga al profesional la capacidad de interpretar, justificar y optimizar cada decisión analítica.

    El papel de las matemáticas en la Ciencia de Datos

    Las matemáticas no son un componente accesorio: constituyen el núcleo conceptual de la disciplina. Cada área del proceso analítico —desde la limpieza y representación de los datos hasta la modelización y evaluación de los resultados— se apoya en conceptos matemáticos esenciales:

    • El álgebra lineal estructura la información en forma de vectores y matrices, haciendo posible el procesamiento eficiente de grandes volúmenes de datos y el funcionamiento interno de algoritmos como la regresión o las redes neuronales.
    • El cálculo describe el cambio y la optimización; es la herramienta que permite ajustar los parámetros de un modelo hasta minimizar el error.
    • La probabilidad y la estadística ofrecen el marco teórico para inferir, predecir y tomar decisiones bajo incertidumbre.
    • La optimización formaliza la búsqueda de soluciones óptimas en espacios complejos, un principio fundamental en el aprendizaje automático.
    • La teoría de conjuntos y la lógica proporcionan el lenguaje formal para definir relaciones, categorías y condiciones sobre los datos.

    En conjunto, estos campos no solo explican el “cómo” de los algoritmos, sino el “por qué” de su funcionamiento y sus limitaciones.


    Objetivos de esta serie

    Esta serie de artículos tiene como propósito presentar de forma estructurada y accesible los principales fundamentos matemáticos de la Ciencia de Datos, vinculando la teoría con su aplicación práctica. A lo largo de las próximas entregas abordaremos los siguientes ejes:

    Álgebra lineal: El ABC de los Datos

    Piensa en álgebra lineal como el sistema de archivos de la data science. Organiza datos en vectores (filas) y matrices (tablas), que son la base de todos los algoritmos.

    EdadSalarioExperiencia.
    2550.0002<– Vector 1
    3075.0005<– Vector 2
    3560.0008<– Vector 3

    Algoritmos como regresión lineal, redes neuronales y PCA trabajan con matrices para encontrar patrones.

    Aplicaciones Reales
    • Recomendaciones Netflix: Matrices de usuario-película
    • Reconocimiento facial: Vectores de píxeles convertidos en características
    • Google Maps: Cálculos matriciales para rutas óptimas

    Cálculo: Encontrando el Mejor Camino

    Imagina que quieres encontrar la mejor ruta desde tu casa al trabajo. El cálculo es como el GPS que evalúa cada posible camino y elige el más rápido. Derivadas, gradientes y métodos de descenso aplicados al aprendizaje automático.

    En machine learning, el gradiente es como una brújula que te dice hacia dónde moverte para mejorar tu modelo y qué tan rápido moverte.

    El Gradient Descent (descenso por gradiente) empieza con una suposición inicial, calcula el error y usa el gradiente para ajustar ligeramente los pesos hasta encontrar el mínimo error. Es como bajar una montaña con los ojos vendados, usando solo la pendiente del terreno para guiarte.


    Probabilidad y estadística: El Arte de Interpretar Datos

    La estadística es como tener gafas especiales para ver patrones invisibles en tus datos. Te ayuda a responder: ¿Es real este patrón o solo casualidad?

    Estadísticas descriptivas

    Te describen tus datos —la media, la mediana, la varianza, la desviación estándar o los percentiles—, que permiten resumir y comprender la estructura esencial de la información, convirtiendo el caos de los datos brutos en conocimiento interpretable, proporcionando una base sólida para la exploración, la visualización y, finalmente, la inferencia estadística y el modelado predictivo.

    A través de ellas podemos detectar patrones generales, identificar valores atípicos, evaluar la consistencia de las mediciones y establecer hipótesis iniciales antes de aplicar modelos más complejos.

    Comprender las Relaciones

    Uno de los pilares de la estadística aplicada en Ciencia de Datos es la correlación, una medida que permite cuantificar la fuerza y dirección de la relación entre dos variables. Analizar la correlación no solo revela patrones ocultos en los datos, sino que orienta la formulación de hipótesis y la construcción de modelos predictivos.

    Sin embargo, identificar una correlación no implica causalidad. Para determinar si una relación observada es estadísticamente significativa y no producto del azar, entran en juego las pruebas estadísticas.

    Validar la Evidencia

    El valor p (p-value) mide hasta qué punto tu hallazgo podría deberse a la casualidad. Los intervalos de confianza, por su parte, definen el rango dentro del cual se espera que se encuentre el valor real del parámetro poblacional con una determinada probabilidad.

    Ambos conceptos permiten evaluar la significancia estadística, es decir, si el efecto detectado es lo suficientemente consistente como para considerarse real y no fruto de la variabilidad muestral.

    Historia real: En 2018, muchas empresas de tech descubrieron que sus «éxitos» en A/B testing eran solo ruido estadístico por no entender los p-values.

    Análisis de Datos y Modelado Matemático: De la Teoría a la Aplicación

    Finalmente, todos estos fundamentos convergen en la práctica del análisis de datos y el modelado matemático, donde las herramientas teóricas se integran para resolver problemas reales en contextos empresariales, científicos y sociales.

    El análisis de datos implica no solo explorar y describir información, sino también formular modelos que representen fenómenos observables, desde la predicción de la demanda en una cadena hotelera hasta la detección de anomalías en sistemas financieros o medioambientales.

    El modelado matemático convierte esas relaciones en expresiones cuantitativas, permitiendo simular escenarios, realizar proyecciones y evaluar decisiones estratégicas. Su poder radica en conectar el mundo abstracto de las ecuaciones con la realidad operativa de las organizaciones, donde cada decisión basada en datos puede traducirse en eficiencia, rentabilidad o innovación.

    No necesitas ser un genio matemático. Solo curiosidad y ganas de entender cómo funcionan las cosas detrás de Python y TensorFlow.

    ¿Cómo las Matemáticas se Conectan con Python?

    En la práctica moderna de la Ciencia de Datos, las matemáticas y Python forman una alianza inseparable. Mientras las matemáticas proporcionan el marco teórico para entender los algoritmos, Python ofrece las herramientas prácticas para implementarlos, visualizarlos y validarlos sobre datos reales.

    Cada concepto matemático puede trasladarse directamente al código:

    • El álgebra lineal se materializa a través de librerías como NumPy, que permite trabajar con vectores, matrices y operaciones matriciales de forma eficiente.
    • El cálculo y la optimización se aplican en entornos como TensorFlow o PyTorch, donde los gradientes y derivadas se calculan automáticamente durante el entrenamiento de modelos.
    • La probabilidad y estadística se ponen en práctica mediante Pandas, SciPy o Statsmodels, facilitando desde el análisis exploratorio hasta las pruebas de hipótesis.

    Python, por tanto, no reemplaza las matemáticas: las traduce en acción. Es el medio que permite pasar de la teoría a la experimentación, y de la experimentación al descubrimiento. Comprender las matemáticas detrás del código permite usar estas herramientas con criterio, interpretar correctamente los resultados y desarrollar soluciones más eficientes y explicables.

    En resumen, mientras las matemáticas aportan el “por qué”, Python ofrece el “cómo”. Juntas conforman el lenguaje operativo de la Ciencia de Datos moderna.