09/08/2025
De la ciencia ficción a la vida real: cómo son los nuevos algoritmos que los investigadores tienen en la mira

Fuente: telam
Investigadores del Instituto Weizmann de Ciencias de Israel diseñaron herramientas que permiten colaborar a modelos diferentes de inteligencia artificial
>* Este contenido fue producido por expertos del Instituto Weizmann de Ciencias, uno de los centros más importantes del mundo de investigación básica multidisciplinaria en el campo de las ciencias naturales y exactas, situado en la ciudad de Rejovot, Israel.
Esta semana, en la Conferencia Internacional sobre Aprendizaje Automático (Los nuevos algoritmos, ya disponibles para millones de desarrolladores de IA en todo el mundo, aceleran el rendimiento de los grandes modelos de lenguaje (LLM, por sus siglas en inglés), los modelos líderes actuales de IA generativa, en un promedio de 1,5 veces.
Los LLM, como ChatGPT y Gemini, son herramientas poderosas, pero presentan desventajas significativas: son lentos y consumen grandes cantidades de poder de cómputo. En 2022, las principales empresas tecnológicas se dieron cuenta de que los modelos de IA, al igual que las personas, podían beneficiarse de la colaboración y la división del trabajo. Esto llevó al desarrollo de un método llamado decodificación especulativa, en el que un modelo pequeño y rápido, con conocimientos relativamente limitados, hace una primera suposición al responder la consulta de un usuario, y un modelo más grande, más potente pero más lento, revisa y corrige la respuesta si es necesario. La decodificación especulativa fue adoptada rápidamente por los gigantes tecnológicos porque mantiene una precisión del 100 por ciento, a diferencia de la mayoría de las técnicas de aceleración, que reducen la calidad de la salida. Pero tenía una gran limitación: ambos modelos debían “hablar” exactamente el mismo idioma digital, lo que significaba que los modelos desarrollados por diferentes empresas no podían combinarse.““En cambio, una startup que quisiera beneficiarse de la decodificación especulativa tenía que entrenar su propio modelo pequeño que coincidiera con el idioma del grande, y eso requiere mucha experiencia y costosos recursos computacionales”.
Los nuevos algoritmos desarrollados por los investigadores de Weizmann e Intel permiten a los desarrolladores emparejar cualquier modelo pequeño con cualquier modelo grande, haciendo que trabajen en equipo. Para superar la barrera del idioma, los investigadores idearon dos soluciones.En segundo lugar, crearon otro algoritmo que hace que dichos modelos se basen principalmente, en su trabajo colaborativo, en tokens que tienen el mismo significado entre modelos, de manera similar a palabras como “banana” o “internet”, que son casi idénticas en los idiomas humanos.“
Al principio, nos preocupaba que se ‘perdiera demasiada información en la traducción’ y que los diferentes modelos no pudieran colaborar de manera efectiva”, dice Timor.La importancia de esta investigación ha sido reconocida por los organizadores de la ICML, quienes seleccionaron el estudio para una presentación pública, una distinción otorgada solo a alrededor del 1 por ciento de las 15.000 presentaciones recibidas este año. “Hemos resuelto una ineficiencia central en la IA generativa”, dice Oren Pereg, investigador sénior en Intel Labs y coautor del estudio.
“Esto no es solo una mejora teórica; son herramientas prácticas que ya están ayudando a los desarrolladores a construir aplicaciones más rápidas e inteligentes”.En los últimos meses, el equipo publicó sus algoritmos en la plataforma de IA de código abierto Hugging Face Transformers, poniéndolos a disposición gratuita de desarrolladores de todo el mundo.“Este nuevo desarrollo es especialmente importante para dispositivos periféricos, desde teléfonos y drones hasta autos autónomos, que deben depender de un poder de cómputo limitado cuando no están conectados a internet”, añade Timor. “Imaginen, por ejemplo, un auto autónomo guiado por un modelo de IA. En este caso, un modelo más rápido puede marcar la diferencia entre una decisión segura y un error peligroso”.
Los nuevos algoritmos aceleran el rendimiento de los grandes modelos de lenguaje (LLM) en un promedio de 1,5 veces, y hasta 2,8 veces.
Fuente: telam
Compartir
Comentarios
Aun no hay comentarios, sé el primero en escribir uno!