¡Claro! Vamos a crear un simulador en Python para visualizar un fenómeno relacionado con la

¡Claro! Vamos a crear un simulador en Python para visualizar un fenómeno relacionado con la explicabilidad en inteligencia artificial (Explainable AI, XAI). En este caso, vamos a desarrollar un simulador que muestre cómo un modelo de machine learning toma decisiones y cómo podemos hacer que estas decisiones sean más comprensibles para los humanos. ¡Vamos a divertirnos mientras aprendemos!

### ¡Bienvenidos al Simulador de Explicabilidad en IA!

Primero, vamos a importar las bibliotecas necesarias. Necesitaremos `matplotlib` para las visualizaciones y `sklearn` para crear un modelo simple.

« `python
import matplotlib.pyplot as plt
import numpy as np
from sklearn.datasets import make_classification
from sklearn.tree import DecisionTreeClassifier
from sklearn.tree import plot_tree
« `

### Paso 1: Crear Datos de Entrenamiento

Vamos a generar algunos datos de clasificación. Imagina que estamos entrenando un modelo para decidir si un día es adecuado para ir a la playa o no, basado en la temperatura y la humedad.

« `python
# Crear datos de entrenamiento
X, y = make_classification(n_samples=100, n_features=2, random_state=42)
plt.scatter(X[:, 0], X[:, 1], c=y, cmap=’viridis’)
plt.title(« Datos de Entrada »)
plt.xlabel(« Temperatura »)
plt.ylabel(« Humedad »)
plt.show()
« `

### Paso 2: Entrenar el Modelo

Ahora, entrenemos un árbol de decisión para predecir si es un buen día para la playa.

« `python
# Entrenar el modelo
model = DecisionTreeClassifier()
model.fit(X, y)
« `

### Paso 3: Visualizar el Árbol de Decisión

¡Ahora viene la parte divertida! Vamos a visualizar el árbol de decisión para entender cómo toma decisiones.

« `python
# Visualizar el árbol de decisión
plt.figure(figsize=(20,10))
plot_tree(model, filled=True, feature_names=[« Temperatura », « Humedad »], class_names=[« No adecuado », « Adecuado »])
plt.title(« Árbol de Decisión »)
plt.show()
« `

### Paso 4: Explicar una Decisión

Para hacer que el modelo sea más explicable, vamos a explicar una decisión específica. Por ejemplo, ¿por qué el modelo decide que un día con temperatura de 25°C y humedad del 60% no es adecuado para la playa?

« `python
# Ejemplo de decisión a explicar
example = np.array([[25, 60]])
prediction = model.predict(example)

# Explicar la decisión
print(f »El modelo decide que un día con temperatura de 25°C y humedad del 60% es {‘No adecuado’ if prediction[0] == 0 else ‘Adecuado’} para la playa. »)
« `

### Paso 5: Añadir Interactividad

Para hacer el simulador más interactivo, podríamos permitir al usuario ingresar sus propias temperaturas y humedades y ver predicciones en tiempo real.

« `python
# Función interactiva para predecir y explicar
def predict_and_explain(temp, hum):
example = np.array([[temp, hum]])
prediction = model.predict(example)
print(f »El modelo decide que un día con temperatura de {temp}°C y humedad del {hum}% es {‘No adecuado’ if prediction[0] == 0 else ‘Adecuado’} para la playa. »)

# Ejemplo de uso
predict_and_explain(25, 60)
« `

### ¡Listo!

¡Ya tenemos nuestro simulador de explicabilidad en IA! Puedes jugar con los datos, entrenar diferentes modelos y ver cómo toman decisiones. ¡Diviértete explicando la IA! ¡Hasta la próxima!

Retour en haut