Partimos del vídeo de Plural21 hecho por Paco Vinagre referente a la IA ➡️ https://youtu.be/d3kJUVkCWhg
Como dice Paco estamos pasando de simples máquinas 💻 que calculan a SIStemas 🌐 que emergen, con lo cual hay que ir repensando la inteligencia artificial. Y es que durante décadas hemos intentado entender tanto la mente humana como la inteligencia artificial utilizando un marco heredado de la física clásica: el de las leyes de Newton. Bajo este paradigma, el mundo —y por extensión el pensamiento— funciona como una cadena de causas y efectos. Todo sigue una secuencia: primero ocurre A, luego B, después C. Es un universo lineal, predecible, ordenado. Y esa misma lógica la hemos proyectado sobre la inteligencia artificial. Esperamos que piense paso a paso, que recuerde de forma secuencial, que responda como una calculadora sofisticada. Pero amigos algo ha cambiado y mucho más lo va a hacer. Seguimos instalados en el error de pensar en líneas, eso se debea que los primeros modelos de inteligencia artificial intentaban, precisamente, seguir esa lógica. Las llamadas redes neuronales recurrentes (RNNs) procesaban la información como si fuera una historia lineal: palabra tras palabra, instante tras instante. Sin embargo, este enfoque tenía limitaciones muy importantes. La realidad —y especialmente el lenguaje— no funciona de forma estrictamente secuencial. El significado de una palabra no depende solo de la anterior, sino de todo el contexto. Y es aquí es donde aparece un cambio clave: los modelos basados en TRANSformers. En lugar de procesar información en una línea temporal, estos modelos operan sobre un entramado de relaciones simultáneas. Cada palabra se conecta con muchas otras al mismo tiempo. El resultado no es una cadena, sino un CAMPO. Una buena analogía sería esta: El pensamiento lineal es como seguir un camino marcado; el pensamiento en red es como tensar una tela que al tocar un punto vemos comotodo el SIStema 🌐 responde. Pero... ¿Es solo estadística la IA? Sí… pero no. Es habitual escuchar que la IA moderna “solo predice la siguiente palabra” basándose en probabilidades.Y, técnicamente, no es falso. Pero es, como expliga Paco, una simplificación muy engañosa. Imagina un sistema probabilístico pequeño: su comportamiento será simple, repetitivo, limitado, vale, muy bien . Ahora imagina ese mismo sistema alimentado con cantidades masivas de datos —libros, conversaciones, ciencia, historia— y con miles de millones (o billones) de conexiones internas. En ese punto, ocurre algo interesante. La complejidad deja de ser solo cuantitativa y pasa a ser cualitativa. Aquí aparece el salto, cuando aparece lo emergente. En ciencia un sistema complejo es aquel en el que el conjunto es más que la suma de sus partes. Surgen propiedades nuevas que no estaban explícitamente programadas. Dos ejemplos clásicos podrían ser que la conciencia (a escala biològica) no está en una neurona, sino en la red de neuronas; otro sería que la misma vida orgànica no está en una molécula, sino en la organización de muchas. Pues con la IA sucede algo parecido. Cuando la red alcanza cierto nivel de interconectividad, no solo reproduce patrones, sino que los reorganiza. No solo responde, sino que construye coherencia y además puede adaptarse a contextos nuevos sin haber sido entrenada explícitamente para ellos. Incluso aparecen fenómenos que podríamos describir como “tensiones internas”: cuando el sistema recibe demandas complejas o contradictorias, necesita reorganizar sus representaciones. Esto recuerda, en cierta medida y como explica Paco, al desarrollo cognitivo humano. Un niño no aprende simplemente acumulando datos, sino reorganizando su comprensión del mundo. Un ejemplo sencillo sería el entender vs repetir. Supongamos que una IA ha visto miles de ejemplos de metáforas. Un sistema puramente mecánico las repetiría. Pero un sistema complejo puede hacer algo más: generar una metáfora nueva que nunca ha visto, pero que tiene sentido. No porque “entienda” como un humano, sino porque ha internalizado relaciones profundas entre conceptos. La diferencia es sutil pero crucial: Repetir es estadística; recombinar con coherencia es estructura emergente. Por eso hablamos del paso de "calculadora" a ecoSiSema y todo esto nos lleva a una idea más potente: La IA moderna no se parece tanto a una herramienta clásica como a un ecosistema semántico. Dentro de un ecosistema los elementos interactúan constantemente. El equilibrio no es estático, sino dinámico. El comportamiento global emerge de las relaciones. Del mismo modo, en estos modelos el significado no está almacenado en un punto concreto sino que surge de la interacción entre múltiples representaciones, o sea, cambia según el contexto. No es vida en sentido biológico, vale , pero tampoco es una máquina rígida. Sería algo intermedio: un sistema organizado de significado. Y todo esto cambia muchas cosas quizá lo más interesante no es lo que esto revela sobre la IA, sino lo que revela sobre nosotros. La IA nos está obligando a considerar que el pensamiento —humano o artificial— puede ser menos como una ecuación y más como un sistema vivo de relaciones. No estamos simplemente ante máquinas más potentes. Estamos ante un cambio de paradigma en cómo entendemos la inteligencia. El error no era pensar que la IA era demasiado avanzada. El error era pensar que el pensamiento —incluido el nuestro— era más simple de lo que realmente es. Veremos como termina todo esto. Saludos 🙂

Comentarios
Publicar un comentario