Modelos Líquidos y Gen AI: Modelos de Conocimiento. (II)
¿Es posible crear modelos con la plasticidad del aprendizaje de un cerebro humano? Una línea de investigación iniciada en 2020 por el MIT (Massachusetts Institute of Technology) y materializada ahora en su proyecto Liquid AI, con 3 modelos LFM (Liquid Foundational Models), está demostrando que sí.
La evolución del Aprendizaje de las IAs hacia el conocimiento es apasionante porque obedece al principio básico del conocimiento de la naturaleza de las cosas y el conocimiento humano. Sobre cómo accedemos a él, por imitación o por mímesis conocemos las cosas y el mundo que nos rodean y podemos crear nuevas realidades, junto al conocimiento intuitivo, el memorístico o experiencial, que forman nuestros aprendizajes, entre otros.
Los Modelos de base líquida son un cambio de orientación en la composición de las Inteligencias Artificiales. Su capacidad para aprender de manera continua, adaptarse a diferentes tipos de datos y ofrecer una mayor interpretabilidad los convierte en una herramienta ágil prometedora para abordar una diversidad de situaciones y problemáticas todavía por dimensionar.
Exploramos los Liquid Foundational Models (LFM) y el impacto que tendrán en todas las Inteligencias Artificiales. ¿Se convertirán los Modelos de Gen AI en Modelos Líquidos o Híbridos a la larga?
De las Redes Neuronales Líquidas a los Modelos de Base Líquida, la Evolución "Natural" en la Inteligencia Artificial.
Las Redes neuronales líquidas (LNN) son un avance importante en el campo de la Inteligencia Artificial, inspiradas en la plasticidad del cerebro humano, estas redes estaban diseñadas para adaptarse y aprender de manera continua, moldeándose en función de su contenedor, tal y como la materia líquida se comporta, de ahí su nombre.
Las primeras investigaciones realizadas en este campo descubrieron que las conexiones y parámetros de las LNN podían cambiar constantemente en respuesta a nuevas entradas, con aprendizajes más flexibles y adaptativos.
Parecían muy útiles para manejar datos secuenciales, como señales de audio o video, capturando patrones temporales de manera más efectiva que las redes neuronales tradicionales. Otro de los hallazgos significativos fue que su arquitectura se basaba en principios biológicos, como la plasticidad sináptica y la codificación temporal, algo que los convertía en proyecciones que podían cumplir con el objetivo de ser enormemente flexibles y adaptativos para los aprendizajes.
Los Modelos Líquidos de hoy tienen unas características evolucionadas que resultan muy prometedoras para la evolución de las Inteligencias Artificiales en general.
Las claves son múltiples, pero una de las más relevantes está en la Memoria que tienen los Modelos Líquidos, es decir, su capacidad de retener el aprendizaje con Machine Learning y Deep Learning, aumentando, de este modo, la Eficiencia Operativa en los procesos integrados por Humanos, dado que parece que no es necesario reaprender una vez que el modelo ha aprendido una tarea específica.
Esta característica conlleva la Sostenibilidad incorporada al Modelo Líquido, que genera Eficiencia Energética, 0 llamadas a la Nube o la Explicabilidad mejorada, lo que corresponde a una capacidad de ofrecer funciones para la toma de decisiones más fiable, además de proporcionan la Privacidad de los Datos en la construcción de un modelo líquido propio.
La evolución hacia Modelos de IA de Base Líquida (LFM) es "más sólida" y más versátil para el Aprendizaje Automático y el Aprendizaje Profundo de las Inteligencias Artificiales.
Los LFM pueden trabajar con una amplia variedad de datos, desde texto y audio hasta series temporales y señales, lo que los convierte en modelos de propósito general.
Su enfoque es híbrido, combinando componentes discretos y continuos, y parece que pueden lograr un rendimiento similar a los Modelos de Aprendizaje Profundo (Deep Learning) con menos recursos computacionales. Además, ofrecen una mayor transparencia en su funcionamiento, lo que facilita la comprensión de cómo llegan a sus conclusiones, su Explicabilidad.
Sus capacidades parecen demostrar unas ventajas en usos que sobrepasan lo que estamos viendo hasta este momento en modelos de IA.
Pueden adaptarse a una amplia gama de tareas, aplicaciones, plataformas y dominios, dado que requieren menos recursos computacionales que otros modelos, permitiendo combinar sus funciones con la facilidad de comprensión de los procesos internos del modelo, adaptándose a nuevos datos y entornos de manera continua.
Los Modelos Líquidos se inspiran en la plasticidad del cerebro, adaptándose continuamente a nuevas entradas y evolucionando con el tiempo, para procesar datos secuenciales y con una arquitectura dinámica.
Los Modelos Gen AI, por otro lado, son capaces de generar todo tipo de datos, siendo multimodales, a partir de indicaciones de texto, con una arquitectura que se basa en redes neuronales profundas y han demostrado ser muy eficientes en tareas creativas de todo tipo.
Los Liquid Foundational Models se diferencian de los modelos generativos de transformadores preentrenados (GPT) en que utilizan un sistema computacional híbrido basado en la “teoría de sistemas dinámicos, procesamiento de señales y álgebra lineal numérica”, según explican sus mismos creadores.
Los actuales modelos de IA tienen sus limitaciones, una de ellas es que no tienen la capacidad de recordar lo aprendido, como sí la tiene un celebro humano. Pueden aprender una nueva tarea rápidamente pero también es cierto que pueden olvidarla con la misma rapidez, al no retener ese aprendizaje, además, pueden ser incapaces de adaptarse a la nueva información.
Una hipótesis plausible es que podrían converger ambos enfoques, que la evolución de las IAs será líquida o, en su extensión, híbrida.
A medida que vaya evolucionando el desarrollo hacia estos modelos más fluidos, podemos esperar ver aplicaciones muy innovadoras y sorprendentes de los LFM, se nos ocurren en la capacidad de minimizar la Obsolescencia Programada, abordar la Economía Circular y la Economía del Dato.
En todo caso, se abren posibilidades fascinantes y es muy probable que los futuros Modelos de IA tengan las características propias de estos Modelos Líquidos o a lo mejor se transformen todos en Modelos Híbridos.
Emergen más Sistemas de IA Multiagente que colaboran de manera autónoma entre sí, impulsando la próxima generación de las Aplicaciones Empresariales con Inteligencia Artificial, al proporcionar un enfoque eficiente y ágil para llevar a cabo diversas tareas en los softwares, unos softwares que necesitan ser Eficientes a nivel Operativo y Energético y Autoeficientes a nivel de entrenamientos, procesos incorporados y funciones habilitadas.
El entrenamiento de los modelos tendrá que contemplar la Seguridad E2E, con datos seguros, privados y amparados por la ética, no solo de su entrenamiento, también de los propios datos en uso y sus funciones.
Los softwares se definirán por sus modelos y estos compiten ya por generar el máximo valor a medio y largo plazo. Cabe esperar que lleguen capacidades líquidas a los actuales modelos de Gen AI.
Nosotros, podemos ayudarte a crear el entorno propicio para esta gran transformación, integrando tus datos a procesos avanzados con Plataformas robustas para afrontar este apasionante futuro, creando arquitecturas con capacidades nativas de IA y con modelos que, sin duda, irán creciendo hacia orientaciones híbridas, con integraciones y autoeficiencias que creemos que serán impresionantes.