Autor: Fernando

  • Probabilidad y Modelos Probabilísticos

    La probabilidad es una herramienta matemática que nos permite cuantificar la incertidumbre asociada a fenómenos aleatorios. A través de ella, podemos estimar la posibilidad de que ocurran ciertos eventos y construir modelos que representen el comportamiento de sistemas inciertos: desde el lanzamiento de un dado hasta la predicción de enfermedades o el rendimiento de un modelo de Machine Learning.

    El estudio de la probabilidad se basa en modelos formales, llamados modelos de probabilidad, que se sustentan en axiomas y reglas fundamentales. En esta sección exploraremos estos conceptos, desde las bases hasta aplicaciones prácticas como la Ley de Bayes o la construcción de un Clasificador de Bayes desde cero.

    El Modelo de Probabilidad

    Un modelo de probabilidad es un marco conceptual y matemático que permite analizar y predecir el comportamiento de fenómenos aleatorios.

    Se apoya en dos componentes esenciales:

    • Espacio muestral (Ω): el conjunto de todos los resultados posibles de un experimento aleatorio.
    • Regla de probabilidad (P): una función que asigna valores entre 0 y 1 a cada subconjunto del espacio muestral.

    El objetivo de este modelo es establecer una ley de probabilidad, una regla que asigne de manera coherente valores no negativos a los eventos, reflejando nuestro grado de confianza o creencia en que ocurran.

    Asignación de Probabilidades

    La asignación de probabilidades consiste en atribuir valores numéricos a los eventos del espacio muestral. Reflejando la confianza o la creencia en la ocurrencia de esos eventos. 

    La probabilidad de un evento \( A \), denotada como \(P(A) \), representa qué tan probable es que \( A \) ocurra cuando se realiza el experimento.
    Cumple siempre:

    $$0 \leq P(A) \leq 1$$

    Ley de Laplace

    También conocida como la regla de la probabilidad clásica o equiprobable, establece que si un experimento aleatorio tiene resultados igualmente probables, entonces la probabilidad de un evento \(E\) es el número de resultados en \(|E|\) dividido por el número total de resultados posibles en el espacio muestral \(|S|\).

    $$P(E) = \frac{|E|}{|S|}$$

    Ejemplo práctico:
    Un bol contiene 3 bolas rojas y 2 azules.

    $$P(\text{Roja}) = \frac{3}{5} = 0.6$$

    Si no conocemos los colores, pero sabemos que hay 5 bolas idénticas, la probabilidad de sacar una cualquiera sería ( 1/5 ).

    Axiomas de la Probabilidad

    Formulados por Kolmogórov (1933), los axiomas definen la base formal de la probabilidad. Son las reglas fundamentales para definir las probabilidades de los eventos dentro del marco de la teoría de probabilidad

    No Negatividad:

    El primer axioma establece que la probabilidad de cualquier evento es siempre un número no negativo

    $$ P(A) \geq 0 $$

    Normalización:

    La probabilidad del espacio muestral completo, representado como \(S\), es igual a 1. Esto significa que es seguro que ocurrirá algún resultado del experimento aleatorio. Se expresa como:

    $$P(S)=1$$

    Aditividad (Regla de la Suma para eventos disjuntos):

    Para dos eventos  \(A\)  y \(B\) que no pueden ocurrir al mismo tiempo (es decir, son mutuamente excluyentes), la regla de la suma establece que la probabilidad de que ocurra  \(A\) o \(B\) es simplemente la suma de sus probabilidades individuales:

    $$P(A∪B)=P(A)+P(B)$$

    Regla de la Suma para eventos no excluyentes

    La regla de la suma es una derivación del axioma de aditivita en caso de que los eventos no sean mutuamente excluyentes. Esta permite calcular la probabilidad de que ocurra al menos uno de dos eventos.

    $$P(A \cup B) = P(A) + P(B) – P(A \cap B)$$

    Ejemplo (cartas):
    Probabilidad de sacar un as o un corazón:

    $$P(A \cup B) = \frac{4}{52} + \frac{13}{52} – \frac{1}{52} $$

    $$P(A \cup B) = \frac{16}{52} = \frac{4}{13}$$

    Ejemplo (dados):
    Número impar o mayor que 4:

    $$P(A \cup B) = \frac{3}{6} + \frac{2}{6} – \frac{1}{6} $$

    $$P(A \cup B)= \frac{4}{6} = \frac{2}{3}$$

    Regla de la Multiplicación general

    Es un teorema derivado de los axiomas de probabilidad se define a partir del concepto de probabilidad condicional. Permite calcular la probabilidad de que ocurran dos o más eventos a la vez.

    Dado que A paso, ¿Cuál es la probabilidad de B?

    $$P(A \cap B) = P(A) \times P(B|A)$$

    Eventos independientes:

    Si A y B son independientes (el resultado de uno no afecta al otro):

    $$P(B∣A)=P(B)$$

    Entonces:

    $$P(A \cap B) = P(A) \times P(B)$$

    Ejemplo (cartas sin reemplazo):

    $$P(\text{Dos Ases}) = \frac{4}{52} \times \frac{3}{51} $$

    $$P(\text{Dos Ases}) = \frac{12}{2652} \approx 0.0045$$

    Diagramas de Árbol

    Un diagrama de árbol representa de forma visual las posibles secuencias de eventos y sus probabilidades. Cada rama muestra un resultado y la probabilidad asociada.

    Ejemplo (dos monedas):

    Cada camino representa un evento y su probabilidad se obtiene multiplicando las ramas.

    Derivaciones de los Axiomas

    A partir de estos axiomas, se pueden deducir varias reglas importantes que son esenciales para el trabajo práctico en probabilidad y estadística.:

    Probabilidad del Complemento de un Evento:

    Una de las derivaciones más directas es la probabilidad del complemento de un evento. Si A es un evento, entonces el complemento de A, denotado \( A^c\), representa la ocurrencia de \(no−A\). Utilizando los axiomas, se puede demostrar que:

    $$P(A^c) = 1 – P(A)$$

    Esto se deduce del hecho de que \( A\), y \( A^c\) son mutuamente excluyentes y su unión es el espacio muestral completo, cuya probabilidad es 1.

    Probabilidad de Eventos Vacíos y Ciertos:

    Directamente de los axiomas, se establece que la probabilidad del conjunto vacío \(∅\), que es un evento imposible, es 0:

    $$P(\emptyset) = 0 $$

    Asimismo, la probabilidad del espacio muestral completo \( Ω\) , que representa un evento seguro, es 1:

    $$P(Ω)=1$$

    Monotonicidad:

    Si un evento A es un subconjunto de otro evento B, entonces la probabilidad de A es menor o igual a la probabilidad de B. Esto refleja la idea de que la ocurrencia de B incluye la ocurrencia de A junto con posiblemente otros resultados:

    $$A \subseteq B \Rightarrow P(A) \leq P(B$$

    Probabilidad de unión:

    Para dos eventos A y B, la probabilidad de su unión puede ser expresada en términos de las probabilidades de A, B, y su intersección \(A∩B\). Esta regla se aplica incluso si A y B no son disjuntos y se deriva como sigue:

    $$ P(A \cup B) = P(A) + P(B) – P(A \cap B)$$

    Esto ajusta la aditividad para el caso de eventos que no son mutuamente excluyentes, evitando la sobre contabilización de la intersección de A y B.

    Subaditividad:

    La subaditividad se refiere a la propiedad de que la probabilidad de la unión de cualquier colección de eventos es menor o igual a la suma de sus probabilidades individuales. Para una secuencia de eventos \(A1,A2,….,An\):

    Esta propiedad es particularmente útil para tratar con uniones de eventos que no son necesariamente disjuntos.

    Límites de Probabilidad:

    Cualquier probabilidad \(P(A)\) para un evento A siempre estará en el rango de 0 a 1, inclusive. Esto se deriva del hecho de que todas las probabilidades son no negativas y que la probabilidad del espacio muestral, el conjunto más grande posible, es 1.

    Tablas de Contingencia

    Organizan y muestran las probabilidades de combinaciones de dos variables.+

    Ejemplo:

    En una ciudad el 60% de las personas tienen ojos negros, el 80% tienen cabello negro y el 50% tienen cabello negro y ojos negros. Si se selecciona una persona al azar, calcule la probabilidad que:

    • No tenga los ojos negros.
    • Tenga los ojos o cabello negro
    • O –> Ojos Negros
    • C –> Cabellos Negros
    VariablesOjos NegrosOjos No NegrosTotal
    Cabello Negro50%30%80%
    Cabello No Negro10%10%20%
    Total60%40%1.00

    Las tablas permiten calcular probabilidades marginales, conjuntas y condicionales de manera sencilla.

    Modelos de Probabilidad Discretos

    Los modelos de probabilidad discretos se ocupan de experimentos donde el número de posibles resultados es finito o contable. Un ejemplo clásico es el lanzamiento de dados, donde los resultados posibles pueden listarse de manera explícita.

    Ejemplo: dos dados de cuatro caras.

    Supongamos que tenemos dos dados de cuatro caras, donde cada resultado tiene una probabilidad de 1/161/16, podemos construir una tabla que muestre todas las combinaciones posibles de los resultados de los dos dados. Cada dado puede mostrar uno de cuatro resultados posibles (1, 2, 3, o 4), lo que nos da un total de 4×4=164×4=16 combinaciones posibles para los dos dados. 

    Probabilidades1234
    11/161/161/161/16
    21/161/161/161/16
    31/161/161/161/16
    41/161/161/161/16
    Sumas1234
    12345
    23456
    34567
    45678

    Probabilidad de suma par: 8 combinaciones → ( 8/16 = 1/2 )
    Probabilidad de al menos un 4: 7 combinaciones → ( 7/16 )


    Ejemplo Aplicado: Diagnóstico Médico

    Un médico sabe que:

    • \( P(\text{Malaria}) = 0.6 \)
    • \( P(\text{Tifoidea}) = 0.7 \)
    • \( P(\text{Ambas}) = 0.4 \)

    La probabilidad de que no tenga ninguna enfermedad:

    $$P(\text{No M ni T}) = 1 – P(\text{M} \cup \text{T}) = 1 – [0.6 + 0.7 – 0.4] = 0.1$$

    El 10% de los pacientes no tendra ninguna enfermedad.

    En resumen

    • Las distribuciones de probabilidad son la base para el análisis estadístico, la simulación y la inferencia.
    • La probabilidad mide la incertidumbre.
    • Todo experimento tiene un conjunto de posibles resultados (espacio muestral).
    • Los eventos son subconjuntos de ese espacio.
    • Las probabilidades se pueden estimar mediante la frecuencia de los resultados en ensayos repetidos.
    • La suma de las probabilidades de todos los resultados posibles siempre es 1.
  • Experimento Aleatorio, Espacio Muestral y Eventos

    ¿Qué es un Experimento Aleatorio?

    Se refiere a cualquier proceso o acción que se realiza bajo condiciones específicas y controladas, pero que, sin embargo, puede producir diferentes resultados en cada realización, sin que sea posible predecir con certeza cuál será el resultado específico en una instancia particular del experimento. La característica distintiva de un experimento aleatorio es esta incertidumbre inherente en el resultado.

    Aunque las condiciones sean las mismas, el resultado puede variar en cada repetición.
    La característica clave es la incertidumbre del resultado.

    Características de un Experimento Aleatorio

    1. Múltiples resultados posibles:
      Puede producir más de un resultado distinto.
      Ejemplo: al lanzar un dado, los posibles resultados son ( {1, 2, 3, 4, 5, 6} ).
    2. Resultado impredecible:
      No se puede saber con certeza cuál será el resultado antes de realizar el experimento.
    3. Repetibilidad:
      El experimento puede repetirse bajo las mismas condiciones, manteniendo las mismas probabilidades para cada posible resultado.

    Ejemplos Clásicos

    ExperimentoEspacio Muestral
    Lanzar una moneda{Cara, Cruz}
    Lanzar un dado{1, 2, 3, 4, 5, 6}
    Extraer una carta de una baraja52 posibles resultados
    Medir el tiempo de vida de un componentevalores continuos en segundos o días

    Resultado (Punto Muestral)

    En el contexto de experimentos aleatorios en probabilidad y estadística. Un resultado es definido como el resultado observable de realizar un experimento, el cual, bajo las mismas condiciones, puede variar en cada realización. Esto ilustra la naturaleza aleatoria de tales experimentos, donde no es posible predecir con certeza el resultado específico antes de realizar el experimento.

    Ejemplos:

    • Lanzar una moneda 4 veces: \(B = {Cara, Cruz, Cara, Cara} \)
    • Lanzar un dado 2 veces: \(A = {4, 6} \)
    • Extraer una carta: \( C = {«A de corazones»} \)

    Espacio Muestral (S o Ω)

    El espacio muestral es el conjunto de todos los posibles resultados de un experimento aleatorio. simbolizado comúnmente como S o Ω. Cada resultado individual dentro del espacio muestral es un punto muestral

    $$S = {R_1, R_2, …, R_n}$$

    Ejemplos:

    • Moneda: \( S = {Cara, Cruz} \)
    • Dos monedas: \(S = {(Cara, Cara), (Cara, Cruz), (Cruz, Cara), (Cruz, Cruz)} \)
    • Dado de 6 caras: \( S = {1, 2, 3, 4, 5, 6} \)

    Algunos espacios muestrales pueden ser infinitos, como lanzar una moneda hasta obtener “Cara”. Aunque sea infinito, sigue siendo contable, ya que podemos enumerar los posibles resultados.

    Ejemplo en Python

    import itertools
    
    # Lanzar dos monedas
    monedas = ["Cara", "Cruz"]
    S = list(itertools.product(monedas, repeat=2))
    print("Espacio muestral:", S)

    Salida:

    Espacio muestral: [('Cara', 'Cara'), ('Cara', 'Cruz'), ('Cruz', 'Cara'), ('Cruz', 'Cruz')]

    Eventos

    Un evento o suceso se define como uno o cualquier conjunto de resultados posibles de un experimento. El espacio muestral S o Ω de un experimento es el conjunto de todos los posibles resultados individuales, y un evento es cualquier subconjunto de este espacio. Esto incluye desde el conjunto vacío, que representa un evento que nunca ocurre, hasta el espacio muestral completo, que es un evento que siempre ocurre.

    • Evento seguro: ocurre siempre → coincide con todo el espacio muestral.
    • Evento imposible: nunca ocurre → conjunto vacío \(\emptyset \).

    Ejemplo:

    Lanzamos dos monedas:

    $$S = {(Cara, Cara), (Cara, Cruz), (Cruz, Cara), (Cruz, Cruz)}$$

    Evento \(A\): “la primera moneda sea Cara”
    $$A = {(Cara, Cara), (Cara, Cruz)}$

    Ejemplo en Python

    S = [("Cara", "Cara"), ("Cara", "Cruz"), ("Cruz", "Cara"), ("Cruz", "Cruz")]
    A = [x for x in S if x[0] == "Cara"]
    print("Evento A:", A)

    Salida:

    Evento A: [('Cara', 'Cara'), ('Cara', 'Cruz')]

    Eventos Mutuamente Excluyentes

    Dos eventos son mutuamente excluyentes si no pueden ocurrir al mismo tiempo.
    En el lanzamiento de una moneda, los eventos “Cara” y “Cruz” son mutuamente excluyentes.

    Ejemplo con Dado:

    • ( A ): número impar → {1, 3, 5}
    • ( B ): número mayor que 4 → {5, 6}
    • Intersección: {5}
      ⇒ No son mutuamente excluyentes.

    Visualización con Diagramas de Venn

    Podemos usar matplotlib-venn para visualizar intersecciones de eventos.

    from matplotlib import pyplot as plt
    from matplotlib_venn import venn2
    
    A = set([1, 3, 5])
    B = set([5, 6])
    
    venn2([A, B], set_labels=('A: números impares', 'B: > 4'))
    plt.title("Eventos A y B (no mutuamente excluyentes)")
    plt.show()

    Resumen Conceptual

    ConceptoDescripciónEjemplo
    Experimento AleatorioProceso con resultado inciertoLanzar un dado
    ResultadoUn resultado individual“5”
    Espacio Muestral (S)Conjunto de todos los resultados{1,2,3,4,5,6}
    EventoSubconjunto de S“número par” = {2,4,6}
    Eventos Mutuamente ExcluyentesNo pueden ocurrir simultáneamente“Cara” y “Cruz”

    En la práctica estadística

    En estadística aplicada y machine learning, estos conceptos son fundamentales porque:

    • Permiten modelar la incertidumbre (base de la probabilidad).
    • Sirven para definir variables aleatorias y distribuciones.
    • Son la base de los métodos inferenciales, como estimación o pruebas de hipótesis.

    ¿Quieres que el siguiente artículo de la serie sea sobre variables aleatorias (discretas y continuas) o sobre probabilidad condicional y regla de Bayes?

  • Conjuntos en Estadística: Fundamentos y Aplicación en Python

    Los conjuntos son uno de los conceptos más básicos y a la vez más importantes en estadística y probabilidad. Toda la teoría de la probabilidad —y, por extensión, gran parte del análisis estadístico— se construye sobre la teoría de conjuntos, que nos permite describir y razonar sobre eventos, muestras y resultados posibles.

    ¿Qué es un Conjunto?

    Un conjunto es una colección bien definida de elementos, que pueden ser números, personas, objetos o resultados de un experimento.

    En estadística, usamos conjuntos para describir:

    • El espacio muestral (todos los resultados posibles de un experimento).
    • Los eventos (subconjuntos del espacio muestral).
    • Las relaciones entre distintos eventos.

    Por ejemplo:

    Si lanzamos un dado, el espacio muestral es

    $$S = {1, 2, 3, 4, 5, 6}$$

    Un evento puede ser “obtener un número par”:

    $$A = {2, 4, 6}$$

    Operaciones entre Conjuntos

    Las operaciones entre conjuntos reflejan relaciones entre eventos en probabilidad.

    OperaciónDescripciónSímboloEjemplo (en el dado)
    UniónOcurre A o B (o ambos)\(A \cup B\)“Número par o mayor que 4”
    IntersecciónOcurre A y B a la vez\(A \cap B\)“Número par y mayor que 4”
    ComplementoNo ocurre A\(A’\) o \(A^c\)“Número impar”
    DiferenciaElementos en A que no están en B\(A – B\)“Números pares que no son mayores que 4”

    Estas operaciones son la base del cálculo de probabilidades, porque cada evento se asocia con un conjunto de resultados, y las reglas de probabilidad siguen las mismas leyes que los conjuntos (como las Leyes de De Morgan).

    Ejemplo Práctico en Python

    Podemos representar los conjuntos y operaciones anteriores fácilmente con set:

    # Espacio muestral del lanzamiento de un dado
    S = {1, 2, 3, 4, 5, 6}
    
    # Eventos
    A = {2, 4, 6}  # número par
    B = {4, 5, 6}  # número mayor que 3
    
    # Operaciones entre conjuntos
    union = A | B
    interseccion = A & B
    complemento = S - A
    diferencia = A - B
    
    print("A ∪ B =", union)
    print("A ∩ B =", interseccion)
    print("A' =", complemento)
    print("A - B =", diferencia)

    Salida:

    A ∪ B = {2, 4, 5, 6}
    A ∩ B = {4, 6}
    A' = {1, 3, 5}
    A - B = {2}

    Conjuntos y Probabilidad

    En la teoría de la probabilidad, los conjuntos se usan para definir y combinar eventos.
    La probabilidad de un evento \( A \) se define como la proporción de casos favorables respecto al total de casos posibles:

    $$P(A) = \frac{|A|}{|S|}$$

    Ejemplo:

    $$S = {1,2,3,4,5,6}, \quad A = {2,4,6}$$

    $$P(A) = \frac{3}{6} = 0.5$$

    En Python, podemos calcularlo así:

    S = {1,2,3,4,5,6}
    A = {2,4,6}
    
    P_A = len(A) / len(S)
    print(f"P(A) = {P_A}")

    Salida:

    P(A) = 0.5

    Leyes de De Morgan en Probabilidad

    Las Leyes de De Morgan conectan los conceptos de unión, intersección y complemento, tanto en conjuntos como en eventos probabilísticos:

    $$(A \cup B)’ = A’ \cap B’$$

    $$(A \cap B)’ = A’ \cup B’$$

    Estas leyes permiten simplificar cálculos y entender mejor la relación entre eventos.

    Verificación en Python: assert no devuelve ningún valor. Es una instrucción de verificación:

    • Si la condición es verdadera, no hace nada.
    • Si la condición es falsa, lanza un AssertionError.
    U = {1, 2, 3, 4, 5, 6}
    A = {1, 2, 3}
    B = {3, 4, 5}
    
    # Leyes de De Morgan:
    # (A ∪ B)' = A' ∩ B'
    # (A ∩ B)' = A' ∪ B'
    
    assert U - (A | B) == (U - A) & (U - B)
    assert U - (A & B) == (U - A) | (U - B)
    
    print("Ambas leyes de De Morgan se verifican correctamente.")

    Representación Visual: Diagramas de Venn

    En estadística, los diagramas de Venn son una herramienta visual para representar eventos y sus intersecciones.

    En Python podemos generarlos fácilmente:

    from matplotlib import pyplot as plt
    from matplotlib_venn import venn2
    
    A = {1, 2, 3, 4, 5}
    B = {4, 5, 6, 7, 8}
    
    union = A | B
    interseccion = A & B
    diferencia = A - B
    
    print("A ∪ B:", union)
    print("A ∩ B:", interseccion)
    print("A - B:", diferencia)
    
    venn2([A, B], set_labels=('A', 'B'))
    plt.title("Operaciones entre conjuntos")
    plt.show()
    Union - A ∪ B: {1, 2, 3, 4, 5, 6, 7, 8}
    Interseccion - A ∩ B: {4, 5}
    Diferencia -  A - B: {1, 2, 3}

    Estos gráficos son muy útiles al enseñar reglas de probabilidad, interdependencia de eventos y espacios muestrales.

    En Resumen

    ConceptoEn EstadísticaEn Python
    Espacio muestralTodos los resultados posiblesset()
    EventoSubconjunto de resultadossubconjunto de set()
    Probabilidad\(P(A)\)A
    Unión de eventos\(A \cup B\)`A
    Intersección\(A \cap B\)A & B
    Complemento\(A’\)S - A
    Diferencia\(A – B\)A - B
  • Probabilidad vs Estadística: Mirar Hacia Adelante o Mirar Hacia Atrás

    Cuando trabajamos con datos, es muy común escuchar los términos probabilidad y estadística. A menudo se usan de manera indistinta, pero en realidad representan dos enfoques complementarios dentro del análisis cuantitativo: uno mira hacia el futuro y el otro hacia el pasado.

    ¿Qué es la Probabilidad?

    La probabilidad es la rama de la matemática que estudia la incertidumbre de los eventos futuros. Su objetivo es predecir la posibilidad de que algo ocurra, basándose en un modelo o conjunto de reglas conocidas.

    En términos simples:

    • Si la probabilidad de un evento es 0, significa que no puede ocurrir.
    • Si es 1, significa que ocurrirá con certeza.
    • Y si es, por ejemplo, 0.73, interpretamos que hay un 73% de confianza en que el evento sucederá.

    Por ejemplo, si lanzamos una moneda justa, la probabilidad de obtener “cara” es de 0.5.
    No sabemos qué ocurrirá en un lanzamiento particular, pero sí podemos modelar el comportamiento esperado a largo plazo.

    La probabilidad como teoría se enfoca en desarrollar leyes, reglas y fórmulas matemáticas que permiten cuantificar la incertidumbre. No necesita datos históricos; parte de supuestos o modelos ideales (por ejemplo, monedas justas, dados equilibrados, distribuciones normales, etc.).

    ¿Qué es la Estadística?

    La estadística, en cambio, mira hacia el pasado. Su tarea es aprender de los datos existentes: descubrir patrones, estimar parámetros y generar modelos que expliquen la realidad observada.

    Mientras la probabilidad se basa en reglas teóricas para predecir el futuro, la estadística extrae esas reglas a partir de datos reales.

    Por ejemplo, si observamos el resultado de 1000 lanzamientos de una moneda y obtenemos 520 caras y 480 cruces, podemos usar estadística para inferir si la moneda es justa o no.

    En ciencia de datos, la estadística incluye:

    • Descriptiva → resumir y visualizar datos (media, desviación estándar, histogramas, etc.)
    • Inferencial → estimar y hacer inferencias sobre una población usando una muestra (intervalos de confianza, tests de hipótesis, regresión, etc.)

    Ejemplo práctico

    Supongamos que tenemos datos históricos de lluvia de los últimos 10 años en una ciudad.

    • Un estadístico analizará los datos pasados para estimar la frecuencia de días lluviosos, promedios, variaciones y tendencias.
      → “En promedio, llueve el 30% de los días del año.”
    • Un probabilista utilizará esos patrones para predecir la probabilidad de que mañana llueva.
      → “Según el modelo, la probabilidad de lluvia mañana es del 35%.”

    En Ciencia de Datos

    En los proyectos de ciencia de datos, ambas disciplinas trabajan juntas:

    Etapa del procesoEnfoqueObjetivo
    Exploración y limpiezaEstadística descriptivaEntender y preparar los datos
    Modelado y ajusteEstadística inferencialEstimar parámetros del modelo
    PredicciónProbabilidad aplicadaCalcular probabilidades de eventos futuros
    Evaluación del modeloEstadística y probabilidadValidar y cuantificar incertidumbre

    Por ejemplo, cuando entrenamos un modelo de clasificación, usamos estadística para estimar los parámetros del modelo y probabilidad para predecir la pertenencia de un nuevo dato a una clase determinada.

  • Guía rápida de referencia: Expresiones Regulares en Python

    Las expresiones regulares son una herramienta esencial en Python para buscar, validar y transformar texto. Se implementan a través del módulo estándar re, que proporciona funciones como search(), match(), findall(), split() o sub().

    Puedes experimentar tus expresiones directamente en regex101.com seleccionando el motor Python.

    Clases de Caracteres

    ExpresiónDescripción
    [ABC]Coincide con cualquiera de los caracteres dentro de los corchetes.
    [^ABC]Coincide con cualquier carácter que no esté en el conjunto.
    [A-Z]Coincide con un carácter dentro del rango especificado (inclusive).
    .Coincide con cualquier carácter, excepto el salto de línea (\n). Puede incluirlo si se usa la bandera re.S.
    \wCoincide con un carácter de palabra (letra, número o guion bajo). Equivalente a [A-Za-z0-9_].
    \WCoincide con cualquier carácter que no sea de palabra.
    \dCoincide con un dígito (0–9).
    \DCoincide con cualquier carácter que no sea un dígito.
    \sCoincide con un carácter de espacio en blanco (espacio, tab, salto de línea, retorno de carro, etc.).
    \SCoincide con cualquier carácter que no sea espacio en blanco.
    \n, \r, \t, \f, \vCoinciden con salto de línea, retorno de carro, tabulación, salto de página y tabulación vertical, respectivamente.
    \xFFCoincide con el carácter cuyo valor hexadecimal es FF.
    \uFFFFCoincide con el carácter Unicode especificado (por ejemplo \u00F1 → ñ).

    Anclas

    ExpresiónDescripción
    ^Coincide con el inicio de la cadena o de una línea (si se usa re.M).
    $Coincide con el final de la cadena o de una línea (si se usa re.M).
    \bCoincide con un límite de palabra (entre un carácter de palabra y uno que no lo es).
    \BCoincide con una posición que no sea límite de palabra.
    \ACoincide solo al inicio de toda la cadena (no afectado por re.M).
    \ZCoincide solo al final de toda la cadena (no afectado por re.M).

    Grupos de Captura

    ExpresiónDescripción
    (ABC)Agrupa tokens y crea un grupo de captura.
    (?P<nombre>ABC)Grupo de captura con nombre, referenciable como (?P=nombre) o \g<nombre> en reemplazos.
    \1, \2, \3Referencias a grupos de captura por número.
    (?:ABC)Grupo no capturante: agrupa sin guardar coincidencias.

    Lookaround (búsquedas anticipadas y retrospectivas)

    ExpresiónDescripción
    (?=ABC)Lookahead positivo: coincide si después del patrón actual está ABC.
    (?!ABC)Lookahead negativo: coincide si no hay ABC después.
    (?<=ABC)Lookbehind positivo: coincide si antes del patrón está ABC.
    (?<!ABC)Lookbehind negativo: coincide si no hay ABC antes.

    Cuantificadores y Alternancia

    ExpresiónDescripción
    +1 o más repeticiones del token anterior.
    *0 o más repeticiones del token anterior.
    ?0 o 1 del token anterior (opcional).
    {n}Exactamente n repeticiones.
    {n,}n o más repeticiones.
    {n,m}Entre n y m repeticiones.
    +?, *?, ??, {n,m}?Cuantificadores no codiciosos (buscan la menor coincidencia posible).
    ``

    Sustitución (Reemplazo en re.sub())

    ExpresiónDescripción
    \1, \2, …Inserta el texto del grupo de captura correspondiente.
    \g<nombre>Inserta el texto del grupo con nombre.
    \\Inserta un carácter \ literal.
    \n, \r, \tCaracteres de escape comunes.

    Banderas en Python (re)

    BanderaDescripción
    re.I o re.IGNORECASEIgnora mayúsculas y minúsculas.
    re.M o re.MULTILINE^ y $ coinciden al inicio y final de cada línea.
    re.S o re.DOTALLHace que . coincida también con saltos de línea.
    re.U o re.UNICODEInterpreta \w, \W, \b y \B según Unicode (activado por defecto en Python 3).
    re.X o re.VERBOSEPermite escribir expresiones legibles con espacios y comentarios.
    re.A o re.ASCIIHace que \w, \b, \d y \s solo reconozcan caracteres ASCII.

  • La Paradoja de Simpson: Cuando los Datos Cuentan Historias Contradictorias

    En ciencia de datos y estadística, las decisiones que tomamos dependen directamente de cómo analizamos la información. A menudo confiamos en medidas estadísticas como medias, proporciones o correlaciones para sacar conclusiones. Sin embargo, a veces las tendencias cambian drásticamente cuando separamos los datos en grupos o los combinamos.

    A este fenómeno se le conoce como Paradoja de Simpson. En pocas palabras, ocurre cuando una tendencia observada en varios grupos individuales desaparece o incluso se invierte al combinar los datos de todos esos grupos.

    Ejemplo clásico: recomendaciones de consolas de videojuegos

    Imaginemos una encuesta sobre qué consola recomiendan más los usuarios, PS4 o Xbox One, separando las respuestas por género:

    GruposPS4Xbox One
    Masculino50/150 = 33%180/360 = 50%
    Femenino200/250 = 80%36/40 = 90%
    Combinado250/400 = 62.5%216/400 = 54%

    A primera vista, tanto hombres como mujeres prefieren Xbox One dentro de sus respectivos grupos. Pero al combinar los datos, PS4 parece ser la consola más recomendada.

    Esto parece contradictorio —y lo es. La paradoja surge porque las proporciones se interpretan sin tener en cuenta el tamaño de cada grupo.

    En este caso:

    • Xbox One tiene muchas más respuestas de hombres (360) que de mujeres (40).
    • PS4 tiene el patrón opuesto: muchas más respuestas femeninas (250) que masculinas (150).

    Cuando agregamos los datos, los tamaños de muestra desiguales alteran la tendencia global. Este es el corazón de la Paradoja de Simpson: una conclusión opuesta al combinar los datos frente a cuando se analizan por separado.

    Cómo reproducir la paradoja en Python

    Podemos ilustrar el efecto con un pequeño ejemplo:

    import pandas as pd
    
    # Datos de ejemplo
    data = pd.DataFrame({
        'consola': ['PS4']*400 + ['Xbox One']*400,
        'genero': ['Hombre']*150 + ['Mujer']*250 + ['Hombre']*360 + ['Mujer']*40,
        'recomienda': (
            [1]*50 + [0]*100 +    # PS4 hombres
            [1]*200 + [0]*50 +    # PS4 mujeres
            [1]*180 + [0]*180 +   # Xbox hombres
            [1]*36 + [0]*4        # Xbox mujeres
        )
    })
    
    # Tasas por grupo
    print(data.groupby(['consola','genero'])['recomienda'].mean().unstack())
    
    # Tasa global combinada
    print('\nTasas globales:')
    print(data.groupby('consola')['recomienda'].mean())

    Salida:

    genero      Hombre  Mujer
    consola                    
    PS4           0.33   0.80
    Xbox One      0.50   0.90
    
    Tasas globales:
    consola
    PS4         0.625
    Xbox One    0.540

    La paradoja aparece claramente: las preferencias se invierten al combinar los grupos.

    Un ejemplo del mundo real: tratamientos de salud mental

    La paradoja de Simpson no es solo una curiosidad estadística. En el mundo real se ha observado en áreas críticas como la medicina, educación, o economía.

    Considera un estudio sobre la efectividad de dos terapias para la depresión:

    Tipo de depresiónTerapia ATerapia B
    Ligera81/87 = 93%234/270 = 87%
    Severa192/263 = 73%55/80 = 69%
    Combinado273/350 = 78%289/350 = 83%

    Aquí, la Terapia A funciona mejor tanto para casos leves como severos. Sin embargo, al combinar los datos, parece que la Terapia B es más efectiva.

    ¿Por qué?
    Porque el número de pacientes tratados con cada terapia y tipo de depresión no es el mismo. En los casos leves (que tienen tasas altas de éxito), la mayoría recibió la Terapia A, mientras que los casos severos (con tasas más bajas) se concentraron más en la Terapia B.

    La gravedad de la depresión es una variable de confusión, es decir, un factor no considerado que afecta el resultado global.

    Lecciones de la Paradoja de Simpson

    1. El contexto importa.
      Los datos sin contexto pueden llevar a conclusiones erróneas. Siempre debemos preguntarnos qué factores ocultos pueden estar influyendo en las relaciones observadas.
    2. Analiza por subgrupos antes de agregar.
      Las tendencias globales pueden esconder comportamientos opuestos en segmentos individuales.
    3. El tamaño de muestra importa.
      No todos los grupos tienen el mismo peso; las proporciones deben interpretarse considerando cuántos datos hay en cada grupo.
    4. Correlación no implica causalidad.
      Que dos variables se muevan juntas no significa que una cause a la otra. La paradoja de Simpson es una excelente demostración de esto.

    En Resumen

    La Paradoja de Simpson nos recuerda que los datos nunca cuentan toda la historia por sí solos.

    Antes de tomar decisiones basadas en estadísticas agregadas, debemos explorar los subgrupos y buscar posibles variables de confusión que puedan estar distorsionando la interpretación.

    En análisis de datos, la clave no es solo calcular, sino entender. Porque a veces, los promedios engañan más de lo que explican.

  • Correlación entre Variables Categóricas

    En este articulo veremos cómo estudiar la asociación entre dos variables categóricas.

    Ejemplo: Inventario de Personalidad Narcisista (NPI-40)

    El Inventario de Personalidad Narcisista (NPI-40) es un cuestionario que evalúa rasgos narcisistas a través de 40 ítems con opciones A o B. Las respuestas se puntúan para determinar el nivel de narcisismo, que puede variar de bajo a muy alto. Se aclara que este inventario no es un diagnóstico clínico, sino una herramienta para medir características de personalidad.
    Cada pregunta tiene dos posibles respuestas: “sí” o “no”.

    Algunas de las preguntas incluidas en este ejemplo son:

    • influence:
      • yes → “Tengo un talento natural para influir en las personas.”
      • no → “No soy bueno para influir en las personas.”
    • blend_in:
      • yes → “Prefiero mezclarme con la multitud.”
      • no → “Me gusta ser el centro de atención.”
    • special:
      • yes → “Creo que soy una persona especial.”
      • no → “No soy mejor ni peor que la mayoría.”
    • leader:
      • yes → “Me veo como un buen líder.”
      • no → “No estoy seguro de ser un buen líder.”
    • authority:
      • yes → “Me gusta tener autoridad sobre otras personas.”
      • no → “No me importa seguir órdenes.”

    Como puedes imaginar, las respuestas a algunas de estas preguntas están asociadas entre sí.
    Por ejemplo, alguien que se considera líder también podría tender a disfrutar de tener autoridad.

    Tablas de Contingencia de Frecuencias

    Una forma práctica de resumir la relación entre dos variables categóricas es mediante una tabla de contingencia (también conocida como tabla cruzada o de doble entrada).
    Podemos construirla fácilmente en pandas con crosstab().

    Supongamos que queremos analizar la relación entre influence (creerse bueno para influir en los demás) y leader (verse como líder):

    import pandas as pd
    
    influence_leader_freq = pd.crosstab(npi.influence, npi.leader)
    print(influence_leader_freq)

    Resultado:

    leader     no     yes
    influence
    no        3015    1293
    yes       2360    4429

    Esta tabla muestra cuántas personas dieron cada combinación de respuestas.
    Por ejemplo:

    • 3015 personas respondieron “no” a ambas preguntas.
    • 4429 personas respondieron “sí” tanto a influence como a leader.

    Observación: si alguien se ve como líder, es más probable que también piense que tiene talento para influir en los demás. Esto ya sugiere una posible asociación entre ambas variables.

    Tablas de Contingencia de Proporciones

    Para comparar mejor, es útil expresar las frecuencias como proporciones del total.
    Podemos hacerlo dividiendo entre el número total de observaciones:

    influence_leader_prop = influence_leader_freq / len(npi)
    print(np.round(influence_leader_prop, 3))

    Resultado:

    leader       no     yes
    influence
    no          0.272   0.117
    yes         0.213   0.399

    Estas proporciones nos muestran que las categorías “sí/sí” (0.399) y “no/no” (0.272) son las más frecuentes. En otras palabras, casi el 40% de los participantes se ven como líderes y dicen tener talento para influir.

    Proporciones Marginales

    Ahora bien, incluso si no existiera relación entre las variables, las proporciones no se distribuirían equitativamente (no serían todas 0.25). Por ejemplo, puede que más de la mitad de las personas se consideren influyentes, lo cual afectará las proporciones. Las proporciones marginales resumen la fracción total de personas en cada categoría individual (por filas y columnas).

    leader_marginals = influence_leader_prop.sum(axis=0)
    influence_marginals = influence_leader_prop.sum(axis=1)
    
    print("Marginal por líder:\n", leader_marginals)
    print("\nMarginal por influencia:\n", influence_marginals)

    Resultado:

    Marginal por líder:
    no     0.484
    yes    0.516
    
    Marginal por influencia:
    no     0.388
    yes    0.612

    Esto nos dice que:

    • El 51.6% de las personas se consideran líderes.
    • El 61.2% piensa que tiene talento para influir.

    Tablas de Contingencia Esperadas

    Si las variables no estuvieran asociadas, podríamos predecir las proporciones esperadas multiplicando las proporciones marginales de cada categoría:

    Líder = noLíder = sí
    Influencia = no0.484 × 0.388 = 0.1880.516 × 0.388 = 0.200
    Influencia = sí0.484 × 0.612 = 0.2960.516 × 0.612 = 0.315

    Si el total de observaciones es 11 097, podemos calcular las frecuencias esperadas:

    Líder = noLíder = sí
    Influencia = no0.188 × 11097 = 20870.200 × 11097 = 2221
    Influencia = sí0.296 × 11097 = 32880.315 × 11097 = 3501

    Podemos obtener esta tabla automáticamente con SciPy:

    from scipy.stats import chi2_contingency
    import numpy as np
    
    chi2, pval, dof, expected = chi2_contingency(influence_leader_freq)
    print(np.round(expected))

    Salida:

    [[2087. 2221.]
     [3288. 3501.]]

    Estas son las frecuencias esperadas si no hubiera asociación entre las variables.

    Comparación Observada vs Esperada

    Tabla observada:

    leader     no     yes
    influence
    no        3015    1293
    yes       2360    4429

    Tabla esperada (sin asociación):

    leader     no     yes
    influence
    no        2087    2221
    yes       3288    3501

    Vemos diferencias notables: por ejemplo, hay 3015 observaciones reales en la celda (no/no), cuando esperaríamos 2087. Esto sugiere que las variables están efectivamente asociadas.

    La Estadística Chi-Cuadrado (χ²)

    Para cuantificar la diferencia entre ambas tablas, utilizamos la prueba Chi-Cuadrado de independencia. La fórmula general es:

    $$\chi^2 = \sum \frac{(O – E)^2}{E}$$

    donde

    • \(O\) son los valores observados,
    • \(\)E \(\) los valores esperados.

    En Python, la obtenemos directamente:

    chi2, pval, dof, expected = chi2_contingency(influence_leader_freq)
    print(f"Chi-cuadrado: {chi2:.2f}")
    print(f"p-value: {pval:.5f}")

    Resultado:

    Chi-cuadrado: 1307.88
    p-value: 0.00000

    Interpretación:

    • En una tabla 2×2, un valor de χ² superior a 4 ya sugiere una relación significativa.
    • Aquí, χ² = 1307.88, una diferencia enorme: evidencia muy fuerte de asociación.
    • El p-value ≈ 0 confirma que las variables no son independientes.

    En resumen:

    • Las tablas de contingencia permiten observar la relación entre dos variables categóricas.
    • Convertirlas a proporciones facilita la comparación.
    • Las proporciones marginales ayudan a calcular lo que esperaríamos si no hubiera asociación.
    • La prueba Chi-Cuadrado cuantifica cuánto difieren los datos observados de los esperados.
    • Un valor de χ² alto (y p-value bajo) indica una asociación significativa.

  • Correlación entre Variables Cuantitativas y Categóricas

    Cómo evaluar la asociación entre una variable cuantitativa (por ejemplo, una puntuación o precio) y una variable categórica (por ejemplo, tipo de escuela, zona, o profesión).

    Ejemplo: Datos de Estudiantes

    Supongamos que tenemos un conjunto de datos de estudiantes de dos escuelas portuguesas. Contiene la siguiente información:

    • school: escuela del alumno → Gabriel Pereira ('GP') o Mousinho da Silveira ('MS')
    • address: zona de residencia → 'U' urbana o 'R' rural
    • absences: número de ausencias durante el curso
    • Mjob: profesión de la madre
    • Fjob: profesión del padre
    • G3: puntuación final del alumno en matemáticas (0 a 20)

    Queremos responder:

    ¿Las puntuaciones de matemáticas (G3) están asociadas con la escuela a la que asisten los estudiantes?

    Si es así, conocer la escuela podría ayudarnos a predecir el rendimiento académico.

    Diferencias de Medias y Medianas

    Una forma inicial de explorar esta relación es comparar las medias y medianas de las puntuaciones en cada grupo.

    import numpy as np
    
    # Dividir los puntajes según la escuela
    scores_GP = students.G3[students.school == 'GP']
    scores_MS = students.G3[students.school == 'MS']
    
    # Calcular medias
    mean_GP = np.mean(scores_GP)
    mean_MS = np.mean(scores_MS)
    mean_diff = mean_GP - mean_MS
    
    print(f"Media GP: {mean_GP:.2f}")
    print(f"Media MS: {mean_MS:.2f}")
    print(f"Diferencia de medias: {mean_diff:.2f}")
    

    Resultado:

    Media GP: 10.49  
    Media MS: 9.85  
    Diferencia de medias: 0.64

    También podríamos usar la mediana en lugar de la media para reducir el efecto de valores extremos.

    median_GP = np.median(scores_GP)
    median_MS = np.median(scores_MS)
    
    print(f"Median_GP: {median_GP:.2f}")
    print(f"Median_MS: {median_MS:.2f}")
    print(f"Diferencia de medianas: {median_GP - median_MS:.2f}")
    Median_GP: 12.00
    Median_MS: 11.00
    Diferencia de medianas: 1.00

    Estas diferencias nos dan una idea inicial, pero no nos dicen si la diferencia es relevante o significativa. Para eso, es útil visualizar la dispersión de los datos.

    Diagramas de Caja Comparativos

    Los diagramas de caja (boxplots) permiten visualizar simultáneamente la distribución, mediana y variabilidad de una variable cuantitativa entre grupos. Esto puede ayudarnos a determinar si las diferencias de medias o medianas son “grandes” o “pequeñas”. Echemos un vistazo a los diagramas de caja de los puntajes de matemáticas en cada escuela:

    import seaborn as sns
    
    sns.boxplot(data = students, x = 'address', y = 'G3')
    plt.show()

    Estos gráficos nos permiten ver si una escuela o zona tiene valores consistentemente más altos, o si las distribuciones se superponen mucho.

    Histogramas Superpuestos

    Otra opción es comparar las distribuciones con histogramas superpuestos.
    Aquí usamos alpha=0.5 para hacerlos semitransparentes, y density=True para que representen proporciones, no frecuencias absolutas (lo cual es importante si los grupos tienen tamaños distintos).

    plt.hist(scores_urban , color="blue", label="Urban", density=True, alpha=0.5)
    plt.hist(scores_rural , color="red", label="Rural", density=True, alpha=0.5)
    plt.legend()
    plt.show()

    🔍 Interpretación visual:

    • Si las curvas están muy superpuestas → la asociación es débil.
    • Si una está claramente desplazada a la derecha → hay una diferencia consistente entre grupos.
    • Las colas o picos distintos pueden revelar variabilidad o subgrupos (por ejemplo, alumnos destacados).

    Variables Categóricas No Binarias

    Hasta ahora, hemos trabajado con variables categóricas binarias (dos grupos). Pero ¿Qué ocurre si la categoría tiene más de dos valores?

    Por ejemplo, la profesión de la madre (Mjob) puede tener cinco categorías:

    • at_home
    • health
    • services
    • teacher
    • other

    Podemos visualizar la relación con un boxplot múltiple:

    sns.boxplot(data = students, x = 'Mjob', y = 'G3')
    plt.show()

    Aquí evaluamos todas las comparaciones por pares. Si al menos un grupo tiene una distribución diferente (por ejemplo, “health” con valores más altos), podemos decir que existe asociación entre las variables.

  • Correlación: Cómo Entender la Relación entre Variables

    En este articulo se explora la correlación entre diferentes factores y se estima hasta qué punto son confiables sus relaciones. Además, aborda sobre los diferentes tipos de análisis que podemos realizar para descubrir la relación entre los datos: análisis univariado, bivariado y multivariado.

    Cualquier conjunto de datos que queramos analizar tendrá diferentes campos (columnas) con múltiples observaciones (filas). Estas variables suelen estar relacionadas entre sí, ya que se recopilan del mismo fenómeno. Un campo puede influir o no sobre otro; para entenderlo, necesitamos detectar las dependencias existentes entre variables.

    La fuerza de la relación entre dos campos de un conjunto de datos se llama correlación, y se representa con un número entre -1 y 1.

    En otras palabras, la correlación es una técnica estadística que mide y describe cómo se relacionan y varían juntas dos variables. Nos permite responder preguntas como:

    • ¿Cómo cambia una variable con respecto a otra?
    • Si cambia, ¿en qué grado o fuerza?
    • ¿Podemos predecir una a partir de la otra?

    Por ejemplo: la altura y el peso suelen estar relacionados. Las personas más altas tienden a pesar más que las más bajas. Si encontramos una persona más alta que el promedio, es razonable esperar que también pese más que el promedio.

    Qué es el Coeficiente de Correlación

    La correlación nos indica cómo cambian las variables juntas, ya sea en la misma dirección o en direcciones opuestas, y la fuerza de esa relación. El coeficiente de correlación de Pearson \(ρ\) o \(r\) mide esta relación y se calcula como:

    $$r_{xy} = \frac{\text{cov}(x, y)}{\sigma_x , \sigma_y}$$

    donde:

    • \( \text{cov}(x, y)\) es la covarianza entre las variables,
    • \( \sigma_x \) y \( \sigma_y \) son sus desviaciones estándar.

    El valor de ( r ) varía entre -1 y +1:

    Valor de rTipo de correlaciónInterpretación
    +1Perfecta positivaAmbas variables crecen juntas
    0NulaNo hay relación lineal
    -1Perfecta negativaUna crece mientras la otra disminuye

    Valores cercanos a |1| indican una relación fuerte, mientras que los cercanos a 0 indican una relación débil o inexistente.

    Visualización: Diagramas de Dispersión

    Los diagramas de dispersión son herramientas visuales clave para observar la correlación entre dos variables.

    A continuación, veremos ejemplos con Python.

    import matplotlib.pyplot as plt
    import numpy as np
    
    # Generar datos simulados
    x = np.linspace(1, 10, 10)
    y_pos = 2.5 * x + np.random.normal(0, 1, 10)      # correlación positiva
    y_neg = -2.5 * x + np.random.normal(0, 1, 10)     # correlación negativa
    y_none = np.random.normal(5, 5, 10)               # sin correlación
    
    # Crear figuras
    fig, axs = plt.subplots(1, 3, figsize=(12, 4))
    
    axs[0].scatter(x, y_pos, color='green')
    axs[0].set_title('Correlación Positiva')
    
    axs[1].scatter(x, y_neg, color='red')
    axs[1].set_title('Correlación Negativa')
    
    axs[2].scatter(x, y_none, color='gray')
    axs[2].set_title('Sin Correlación')
    
    for ax in axs:
        ax.set_xlabel('Variable X')
        ax.set_ylabel('Variable Y')
        ax.grid(True)
    
    plt.tight_layout()
    plt.show()

    Cuanto más se acerquen los puntos a una línea recta, mayor será la correlación.
    Si los puntos están dispersos sin formar ningún patrón, la correlación es baja o inexistente.

    Correlación No Implica Causalidad

    Una frase muy importante en estadística es:

    La correlación no implica causalidad.”

    Esto significa que dos cosas pueden estar relacionadas sin que una cause la otra.
    Por ejemplo:

    • En invierno la gente compra más sopa caliente. Pero el frío no causa que la gente gaste más dinero; ambos fenómenos están relacionados por un tercer factor (la estación del año).
    • Las ventas de helado y los homicidios aumentan simultáneamente durante el verano.
      No significa que comer helado cause homicidios; ambos están correlacionados por la temperatura, que influye en ambos comportamientos.

    Por tanto, una correlación fuerte no garantiza una relación de causa-efecto. Antes de sacar conclusiones, es crucial analizar los factores subyacentes.

    Análisis Bivariado

    El análisis bivariado estudia la relación entre dos variables. Se usa para determinar si existe una relación y qué tipo de relación hay (positiva, negativa o nula). Por ejemplo, analicemos la relación entre el dinero invertido en publicidad y las ventas obtenidas:

    Usando Numpy y Scipy:

    import numpy as np
    from scipy import stats
    import matplotlib.pyplot as plt
    
    # Datos ficticios
    publicidad = np.array([1, 2, 3, 4, 5, 6, 7, 8, 9])
    ventas = np.array([10, 13, 19, 23, 26, 33, 38, 41, 47])
    
    # Calcular coeficiente de correlación con Numpy
    correlacion = np.corrcoef(publicidad, ventas)[0, 1]
    print(f"Coeficiente de correlación de Pearson: {correlacion:.3f}")
    
    # Calcular coeficiente de correlación con Scipy
    corr = stats.pearsonr(publicidad, ventas)
    print("Correlación:", corr[0])
    
    # Graficar
    plt.scatter(publicidad, ventas, color='blue', label='Datos')
    m, b = np.polyfit(publicidad, ventas, 1)
    plt.plot(publicidad, m*publicidad + b, color='red', label='Línea de mejor ajuste')
    plt.xlabel("Dólares en publicidad")
    plt.ylabel("Ventas")
    plt.title("Análisis Bivariado: Publicidad vs Ventas")
    plt.legend()
    plt.grid(True)
    plt.show()

    Salida:

    Coeficiente de correlación de Pearson: 0.997
    Correlación: 0.9973743231694302

    Interpretación:
    Si el coeficiente de correlación \( r \) es cercano a 1, existe una relación positiva fuerte, lo que sugiere que al aumentar la inversión publicitaria, las ventas también aumentan.

    Análisis Multivariado

    El análisis multivariado examina tres o más variables al mismo tiempo, buscando relaciones más complejas. Se utiliza cuando queremos entender cómo varias variables interactúan entre sí para predecir un resultado.

    Ejemplo: predecir el precio de una casa según tamaño, ubicación y número de habitaciones.

    import pandas as pd
    import seaborn as sns
    import matplotlib.pyplot as plt
    from sklearn.linear_model import LinearRegression
    import numpy as np
    
    data = pd.DataFrame({
        'tamaño_m2': [45, 55, 65, 75, 85, 95, 105, 115],
        'habitaciones': [1, 2, 2, 3, 3, 3, 4, 4],
        'ubicacion': [5, 4, 3, 2, 4, 3, 2, 1],  # zonas más caras no siempre coinciden con mayor tamaño
        'precio': [160000, 170000, 185000, 190000, 210000, 220000, 240000, 230000]
    })
    
    # Variables independientes y dependiente
    X = data[['tamaño_m2', 'habitaciones', 'ubicacion']]
    y = data['precio']
    
    # Crear y entrenar el modelo
    modelo = LinearRegression()
    modelo.fit(X, y)
    
    # Mostrar resultados
    print("Coeficientes:", modelo.coef_)
    print("Intercepto:", modelo.intercept_)
    
    # --- Gráfico de correlaciones ---
    plt.figure(figsize=(8, 6))
    sns.heatmap(data.corr(), annot=True, cmap='coolwarm', fmt=".2f", linewidths=0.5)
    plt.title("Mapa de calor de correlaciones", fontsize=14)
    plt.show()
    Coeficientes: [ 1800.  22000. -9000.]
    Intercepto: 11000.0

    Interpretación:

    • Coeficiente de tamaño_m2: 1800
      ➜ Por cada metro cuadrado adicional, el precio sube 1,800 €, manteniendo las demás variables constantes.
    • Coeficiente de habitaciones: 22000
      ➜ Añadir una habitación aumenta el precio promedio en 22,000 €, suponiendo mismo tamaño y ubicación.
    • Coeficiente de ubicacion: -9000
      ➜ En este ejemplo, los valores de ubicación están codificados de forma que un número menor representa una zona mejor.
      Por eso el coeficiente es negativo: al bajar el número (mejor ubicación), aumenta el precio.
    • Intercepto: 11,000
      ➜ Es el valor base del modelo cuando todas las variables valen 0 (solo tiene sentido teórico, no real).

    El análisis multivariado permite estimar el efecto combinado de múltiples variables y mejorar la precisión de las predicciones.

    Limitaciones de la Correlación

    La correlación solo mide relaciones lineales. Puede ser engañosa cuando la relación es curvilínea o no lineal. Por ejemplo, los siguientes diagramas de dispersión muestran pares de variables con correlaciones cercanas a cero:

    • En uno de ellos, la relación es perfectamente horizontal (pendiente = 0).
    • En los demás, las relaciones son no lineales (curvas, cuadráticas, circulares, etc.).

    En estos casos, la correlación no detecta la relación real, porque una línea recta no puede describir la forma del patrón.

    Explorando la covarianza

    Más allá de visualizar relaciones, también podemos utilizar estadísticas resumidas para cuantificar la fuerza de ciertas asociaciones. La covarianza es una estadística resumida que describe la fuerza de una relación lineal.

    La covarianza puede variar desde infinito negativo hasta infinito positivo. Una covarianza positiva indica que un valor mayor de una variable está asociado con un valor mayor de la otra. Una covarianza negativa indica que un valor mayor de una variable está asociado con un valor menor de la otra. Una covarianza de 0 indica que no hay relación lineal. Aquí hay unos ejemplos:

    Para calcular la covarianza, podemos usar la función cov() de NumPy, que produce una matriz de covarianza para dos o más variables . Una matriz de covarianza para dos variables se parece a esto:

     Variable 1Variable 2
    Variable 1varianza (Variable 1)covarianza
    Variable 2covarianzavarianza (Variable 2)

    En Python, podemos calcular esta matriz de la siguiente manera:

    import pandas as pd
    import numpy as np
    import seaborn as sns
    import matplotlib.pyplot as plt
    
    # Datos simulados de viviendas
    data = pd.DataFrame({
        'tamaño_m2': [45, 55, 65, 75, 85, 95, 105, 115],
        'habitaciones': [1, 2, 2, 3, 3, 3, 4, 4],
        'ubicacion': [5, 4, 3, 2, 4, 3, 2, 1],  # zonas más caras no siempre coinciden con mayor tamaño
        'precio': [160000, 170000, 185000, 190000, 210000, 220000, 240000, 230000]
    })
    
    # --- 1️⃣ Cálculo manual y con NumPy ---
    cov_matrix = np.cov(data['tamaño_m2'], data['precio'])
    cov_tamaño_precio = cov_matrix[0, 1]
    
    print("Matriz de Covarianza:\n", cov_matrix)
    print("\nCovarianza entre tamaño_m2 y precio:", round(cov_tamaño_precio, 2))

    Salida:

    Matriz de Covarianza:
    [[ 616.07142857 5687.5       ]
     [5687.5       53839285.71428572]]
    
    Covarianza entre tamaño_m2 y precio: 5687.5

    Interpretación

    • El valor 5 687.5 es positivo, lo que significa que cuando el tamaño aumenta, el precio también tiende a aumentar.
    • Si fuera negativo, indicaría que los valores mayores de una variable se asocian con valores menores de la otra.
    • Si fuera cercano a 0, implicaría que no hay una relación lineal clara entre tamaño y precio.

    La magnitud (qué tan grande es el número) depende de las unidades de medida. Por eso, la covarianza no es directamente comparable entre conjuntos de datos distintos. Para una medida normalizada e interpretable, se usa la correlación de Pearson, que va de -1 a +1.

  • EDA Avanzada: Exploración de Datos con Estadística Descriptiva y Visualización

    ¿Qué cubre el análisis de datos exploratorios avanzados?

    • Calcular la varianza de una variable.
    • Evaluar la distribución de los datos.
    • Informar sobre cuartiles, cuantiles y rango intercuartil.
    • Explorar datos categóricos.
    • Transformar los datos para satisfacer tus necesidades.

    Varianza

    Calcular la media, mediana y moda es un buen comienzo para comprender la forma general de un conjunto de datos. Pero esas tres estadísticas solo cuentan parte de la historia.

    Considera los dos conjuntos siguientes:

    dataset_one = [-4, -2, 0, 2, 4]
    dataset_two = [-400, -200, 0, 200, 400]

    Ambos tienen la misma media y mediana (0), pero claramente no representan la misma dispersión. Ahí entra en juego la varianza, que describe qué tan dispersos están los datos.

    Distancia desde la media

    Intuitivamente, queremos que la varianza sea mayor cuando los datos están más dispersos y menor cuando están más concentrados. Una primera idea sería usar el rango, pero solo considera los extremos.

    En cambio, podemos medir cuánto se aleja cada punto de la media:

    $$\text{diferencia} = X – \mu$$

    Donde \( X \) es un punto de datos y \( \mu \) la media.

    Promedio de las distancias

    Podemos combinar las diferencias en una sola medida tomando su promedio. Sin embargo, si los valores por encima y por debajo de la media se cancelan (por ejemplo, [-5, 5]), el promedio sería 0, aunque los datos estén claramente dispersos.

    Cuadrar las diferencias

    Para evitar la cancelación, elevamos al cuadrado las diferencias:

    $$\text{diferencia} = (X – \mu)^2$$

    De este modo, los valores negativos desaparecen y las grandes desviaciones pesan más.

    La varianza \( \sigma^2 \) se define entonces como:

    $$\sigma^2 = \frac{\sum_{i=1}^n (x_i – \mu)^2}{n}$$

    Varianza en Python

    import numpy as np
    
    dataset = [3, 5, -2, 49, 10]
    variance = np.var(dataset)
    print(f"Varianza: {variance:.2f}")

    Salida:

    Varianza: 328.56

    La varianza no se interpreta directamente, sin tener en cuenta la escala de los datos. Esta crece con la magnitud de los valores porque está en unidades al cuadrado. Por eso, comparar una varianza de 328.56 en dos contextos distintos (media = 13 o media = 1200) no tiene sentido absoluto. En el primer caso, las desviaciones son grandes respecto a la media y en el segundo, son minúsculas.

    Entonces:

    La varianza no es una medida relativa, y solo tiene valor comparativo si las variables están en la misma escala.

    Desviación estándar

    La varianza tiene un inconveniente: sus unidades están al cuadrado como ya vimos anteriormente. Por eso usamos la desviación estándar, que devuelve las unidades originales:

    $$\sigma = \sqrt{\sigma^2}$$

    Desviación estándar con NumPy

    import numpy as np
    
    dataset = [4, 8, 15, 16, 23, 42]
    standard_deviation = np.std(dataset)
    print(f"Desviación estándar: {standard_deviation:.2f}")

    Salida:

    Desviación estándar: 12.32

    Interpretación práctica

    La desviación estándar permite interpretar cuán inusual es un valor.  Al encontrar el número de desviaciones estándar que un punto de datos está alejado de la media, podemos comenzar a investigar qué tan inusual es realmente ese punto de datos. 

    • ~68% de los datos están dentro de de la media.
    • ~95% dentro de .
    • ~99.7% dentro de .

    Si un punto se encuentra a más de tres desviaciones estándar, es un valor atípico.

    Describiendo un histograma

    Media y Mediana

    Ambas indican el centro de los datos. En distribuciones simétricas, suelen coincidir.

    Dispersión (Spread)

    Se describe con los valores mínimo y máximo, tomados con la media y la mediana, comienzan a indicar la forma del conjunto de datos subyacente.

    Sesgo (Skewness)

    • Simétrico: la media ≈ mediana.
    • Sesgo a la derecha: cola larga hacia la derecha, media > mediana.
    • Sesgo a la izquierda: cola larga hacia la izquierda, media < mediana.

    Modalidad

    La modalidad describe el número de picos en un conjunto de datos. 

    • Unimodal: un solo pico.
    • Bimodal o multimodal: varios picos.
    • Uniforme: sin agrupaciones claras.

    Valores atípicos (Outliers)

    Son puntos lejanos al resto del conjunto de datos. Conviene investigarlos: pueden ser errores o indicios interesantes.

    Cuartiles

    Dividen los datos en cuatro partes iguales:

    • Q1: 25% inferior
    • Q2: 50% (la mediana)
    • Q3: 75% superior

    Ejemplo:

    import numpy as np
    
    dataset = [-108, 4, 8, 15, 16, 23, 42]
    
    q1 = np.quantile(dataset, 0.25)
    q2 = np.quantile(dataset, 0.50)
    q3 = np.quantile(dataset, 0.75)
    
    print(q1, q2, q3)

    Salida:

    4.0 15.0 23.0

    Cuantiles

    Los cuantiles dividen los datos en grupos de igual tamaño.
    Por ejemplo:

    • Deciles: 10 grupos
    • Percentiles: 100 grupos
    import numpy as np
    
    dataset = [5, 10, -20, 42, -9, 10]
    quantiles = np.quantile(dataset, [0.2, 0.4, 0.6, 0.8])
    print(quantiles)

    Salida:

    [-11.8  -3.6   9.2  23.6]

    Rango intercuartil (IQR)

    El rango intercuartil mide la amplitud del 50% central de los datos, entre el tercer cuartil (Q3) y el primer cuartil (Q1).

    $$IQR = Q3 – Q1$$

    Es más robusto ante valores atípicos que el rango total.

    from scipy.stats import iqr
    
    dataset = [4, 10, 38, 85, 193]
    interquartile_range = iqr(dataset)
    print(f"IQR: {interquartile_range}")
    IQR: 75.0

    Diagramas de caja (Boxplots)

    Los diagramas de caja son una de las formas más comunes de visualizar un conjunto de datos. Al igual que los histogramas , los diagramas de caja dan una idea de la tendencia central y la dispersión de los datos.

    Los boxplots resumen visualmente la distribución: