https://www.rafaelmourad.com/ Tensor Logic: El Nuevo Lenguaje de Programación que Une IA Simbólica y Aprendizaje Profundo - Rafael Mourad

Tensor Logic: El Nuevo Lenguaje de Programación que Une IA Simbólica y Aprendizaje Profundo

Una propuesta radical que reemplaza redes neuronales y reglas lógicas por ecuaciones tensoriales — y lo hace funcionar en GPU, con gradiente automático y sin alucinaciones.

¿Qué pasa si la próxima generación de modelos de IA no se construye con capas de neuronas ni con reglas de Prolog, sino con una única operación matemática: el einsum sobre tensores escasos? Esa es la idea central de Tensor Logic, un nuevo lenguaje de programación que promete unificar lo mejor de la inteligencia artificial simbólica y el aprendizaje profundo. No es un framework más. Es un lenguaje de nivel bajo que redefine cómo pensamos el razonamiento en máquinas.

¿Por qué Python ya no basta para la IA del futuro?

Python, PyTorch y TensorFlow han sido la base de la revolución del aprendizaje profundo. Pero cuando se trata de razonar, de aplicar conocimiento estructurado, de inferir reglas o de explicar decisiones, esos sistemas se vuelven opacos. Las redes neuronales aprenden patrones, pero no entienden relaciones. Las lógicas simbólicas lo entienden, pero no escalan con datos reales. Tensor Logic nace de esta grieta: no queremos más hybrid systems. Queremos un solo formalismo que pueda hacer ambas cosas, con diferenciación automática y sin sacrificar eficiencia.

La idea central: una ecuación tensorial lo es todo

En Tensor Logic, no hay funciones, ni loops, ni clases. Solo hay ecuaciones tensoriales. Cada regla lógica —como “si A es padre de B, y B es padre de C, entonces A es abuelo de C”— se convierte en un producto tensorial (einsum) entre matrices binarias dispersas, seguido de una función escalón. Cada hecho es un tensor. Cada relación es un orden superior. La inferencia se reduce a operaciones de proyección y join, exactamente como en bases de datos, pero con embeddings y funciones no lineales. Y lo más sorprendente: todo esto es diferenciable. El gradiente de un programa en Tensor Logic es otro programa en Tensor Logic. Esto significa que puedes entrenar reglas lógicas como si fueran pesos de una red neuronal.

¿Cómo implementar redes neuronales con ecuaciones tensoriales?

Lo que parece imposible se convierte en simple: un perceptrón es una proyección lineal seguida de una función sigmoide. Una CNN es un conjunto de convoluciones tensoriales sobre smears espaciales. Un Transformer es un join entre consultas, claves y valores, con atención como producto de tensores. Incluso un SVM se puede escribir como un espacio de características implícito con kernels de tensores. El artículo muestra más de diez modelos clásicos —desde RNNs hasta GNNs— codificados en menos de una página de ecuaciones tensoriales. Cada uno, identificable, interpretable y entrenable con la misma herramienta.

Razonamiento en el espacio de embeddings: la clave para evitar alucinaciones

Aquí es donde Tensor Logic se vuelve revolucionario. Los hechos no son cadenas de texto, sino vectores de embeddings. Las reglas no son cadenas sintácticas, sino mapeos tensoriales entre esos vectores. Cuando una máquina “raciocina”, no busca una regla en una base de conocimiento, sino que encuentra parecidos en el espacio latente. Al ajustar una “temperatura” en la función sigmoidal, puedes controlar el equilibrio entre deducción exacta (temperatura cercana a cero, como una matriz de similitud casi diagonal) y razonamiento analógico (temperatura alta, como en RAG). Bajo baja temperatura, las alucinaciones desaparecen. Las inferencias se vuelven confiables. Es como tener un motor de búsqueda lógico que aprende por sí mismo.

Escalabilidad real: GPU para denso, bases de datos para disperso

Uno de los mayores retos era hacer esto escalable. El autor propone dos caminos: uno es separar lo denso (operaciones de embeddings en GPU) de lo disperso (consultas de relaciones en un motor de bases de datos tipo Datalog). El otro, más ambicioso, es descomponer los tensores dispersos mediante Tucker o CP, convirtiéndolos en una representación densa compacta que cabe en memoria de GPU. El error se controla con dimensiones de embedding y umbrales de umbral. Los resultados muestran que se puede ejecutar programas complejos con millones de relaciones en una sola GPU, con tiempos de inferencia competitivos con sistemas tradicionales.

Adopción gradual: interoperabilidad con Python y el potencial educativo

No se trata de reemplazar PyTorch hoy. Se trata de construir una puerta de entrada. El lenguaje está diseñado para ser un backend que se puede invocar desde Python con una sola línea. Puedes definir una regla lógica en un archivo .tens, entrenarla con tu dataset, y usarla dentro de tu pipeline de ML existente. Esto abre la puerta a la adopción progresiva. Pero también, por su simplicidad matemática, Tensor Logic podría convertirse en el lenguaje ideal para enseñar IA. ¿Qué es mejor para un estudiante: memorizar la fórmula de un transformer o verlo como un join de tensores? La elegancia es pedagógica.

Ideas finales

Tensor Logic no es una mejora. Es una redefinición. Si el lenguaje de programación del siglo XXI logra unificar lo simbólico y lo estadístico, este podría ser su primer candidato sólido. Puede cambiar cómo construimos asistentes, sistemas de diagnóstico, robots autónomos y modelos de conocimiento. No necesitas nuevos chips. No necesitas nuevos algoritmos de optimización. Solo necesitas cambiar la forma en que piensas las ecuaciones. El código es abierto. El artículo puede leerse en horas. Y el impacto puede durar décadas.

Para explorar la implementación y las ecuaciones completas: https://arxiv.org/abs/2510.12269v2

Si quieres saber más, mira en Tensor Logic: El Nuevo Lenguaje de Programación que Une IA Simbólica y Aprendizaje Profundo