eficiencia computacional

  • Modelos de lenguaje… ¿con tamaño de contexto infinito?

    Modelos de lenguaje… ¿con tamaño de contexto infinito?

    En el ámbito de la inteligencia artificial, donde la memoria y la comprensión profunda del lenguaje son la frontera final, un reciente artículo de Tsendsuren Munkhdalai, Manaal Faruqui y Siddharth Gopal, ingenieros en Google, promete ser el cohete que nos lleve hacia nuevas dimensiones. Titulado «Leave No Context Behind: Efficient Infinite Context Transformers with…

  • Arquitectura Mamba, ¿competencia para la arquitectura Transformer?

    Arquitectura Mamba, ¿competencia para la arquitectura Transformer?

    En la constante búsqueda por mejorar la eficiencia y efectividad de los modelos de lenguaje a gran escala (en inglés, LLMs), la arquitectura Mamba emerge como una técnica innovadora. Desarrollada por investigadores de la Universidad Carnegie Mellon y Princeton, Mamba promete abordar uno de los retos más significativos de los modelos basados en Transformers:…