Más Allá de Asimov: El Laboratorio Prieste Prueba un Nuevo Marco Moral para Sistemas Autónomos

La ética de la Inteligencia Artificial se ha estancado. Durante años, el debate académico y público se ha obsesionado con el “problema del tranvía”: escenarios hipotéticos de vida o muerte para vehículos autónomos. En el Colegio Prieste de Artes y Letras, creemos que esta obsesión es una distracción peligrosa. Los dilemas éticos más inmediatos y complejos a los que se enfrentan los sistemas autónomos no son binarios, sino sociales, sutiles y confusos.

¿Cómo debe un robot de servicio en un hospital priorizar sus tareas? ¿Debe atender primero al cirujano que necesita instrumental (eficiencia del sistema), al paciente anciano que se ha caído (urgencia humana), o al familiar visiblemente angustiado que bloquea el pasillo (desescalada social)?

Un robot programado únicamente para la eficiencia operativa fallará estrepitosamente en el contexto social humano. Pero, ¿cómo se cuantifica la “competencia social”? ¿Y cómo se traduce la filosofía moral abstracta en un código ejecutable?

Este desafío es el núcleo de una nueva e intensa colaboración en nuestro campus de Madrid, uniendo dos de nuestras facultades aparentemente más dispares: el Laboratorio de IA Ética y Sistemas Autónomos (AELab), dirigido por la Dra. Elena Petrova, y el seminario de Filosofía de la Tecnología de la Dra. Anaïs Duval, un pilar de nuestro Grado en Humanidades Digitales.

El Experimento: Cuando la Filosofía se Encuentra con C++

El proyecto surgió de una frustración compartida. Los ingenieros de robótica de la Dra. Petrova, formados en nuestro Grado de Ciencias de la Computación (CS), podían hacer que un robot de enjambre (swarm) navegara por un laberinto con una eficiencia despiadada. Mientras tanto, los estudiantes de Humanidades Digitales de la Dra. Duval mantenían debates de alto nivel sobre el post-humanismo y la ética relacional. Sin embargo, ambos grupos rara vez hablaban el mismo idioma.

Así nació el “Seminario de Gobernanza Ética Aplicada”. El desafío fue el siguiente: un grupo de estudiantes de CS construiría una simulación hiperrealista de un entorno social complejo (el mencionado pasillo de hospital). Un grupo de estudiantes de Humanidades no solo escribiría un ensayo sobre la mejor teoría ética a aplicar, sino que tendrían que codificarla.

Los filósofos se vieron obligados a ir más allá de los debates teóricos. Tuvieron que traducir marcos morales complejos —como la ética de la virtud aristotélica (que prioriza el “carácter” del agente) o la ética relacional (que prioriza el mantenimiento de las conexiones sociales)— en un conjunto de reglas lógicas, heurísticas y árboles de decisión: un “Módulo de Gobernanza Ética” que pudiera ser implementado por los ingenieros.

Los Resultados: El Fracaso de la Optimización Pura

Los resultados, presentados la semana pasada en un simposio interno, fueron un fracaso glorioso y profundamente instructivo.

  1. El Modelo Utilitario (Control): El robot programado para la máxima eficiencia (servir al cirujano, calcular la ruta más rápida) logró la mayor tasa de “éxito de tareas”. Sin embargo, en las simulaciones, ignoró repetidamente al paciente caído y empujó agresivamente al familiar angustiado, provocando una escalada del caos social y una calificación de “confianza humana” cercana a cero.
  2. El Modelo Deontológico (Basado en Reglas): El robot programado por los filósofos con un estricto conjunto de reglas kantianas (ej. “Nunca ignores una petición humana directa”, “Respeta siempre el espacio personal”) sufrió una “parálisis de análisis”. Se quedó atascado en bucles lógicos, incapaz de tomar una decisión cuando dos reglas entraban en conflicto (ej. la petición del cirujano vs. la petición del familiar).
  3. El Modelo Relacional (El Prototipo Prieste): Este fue el más imperfecto e interesante. El robot fue programado para priorizar la “reducción de la angustia” visible en el entorno. Se detuvo para interactuar con el familiar, tranquilizándolo antes de proceder hacia el cirujano. En términos de eficiencia de tareas, fue un desastre. Creó un cuello de botella en el pasillo.

Sin embargo, en las métricas de “satisfacción del observador humano”, obtuvo la puntuación más alta. Y aquí es donde el equipo tropezó con el núcleo del problema: la ingeniería tradicional ve la interacción social como “ruido” o un obstáculo para la eficiencia. Este experimento demostró que, en entornos humanos, la interacción social es la tarea principal.

Conclusión: Más Allá de la Eficiencia

Esta colaboración no produjo un robot perfectamente ético. Sería ingenuo pensar que podría. Lo que produjo fue algo mucho más valioso: un equipo de ingenieros de robótica que ahora entienden que la eficiencia pura es un objetivo fallido, y un grupo de filósofos que comprenden el coste brutal y la ambigüedad de traducir una teoría ética a código ejecutable.

El trabajo del AELab ahora se está reorientando. Están abandonando la búsqueda de una única “optimización moral” y se están centrando en su lugar en “robots socialmente legibles”: máquinas que quizás no siempre tomen la decisión “correcta”, pero cuyas intenciones y procesos de toma de decisiones sean transparentes para los humanos que los rodean.

Esto es el Colegio Prieste de Artes y Letras en acción. No estamos esperando a que el futuro suceda; estamos en nuestros laboratorios de Madrid, soldando las conexiones desordenadas entre la condición humana y el silicio.