- Publicado el
Entrenamiento en Tiempo de Prueba para Razonamiento Abstracto
Este artículo explora el uso del Entrenamiento en Tiempo de Prueba (TTT) para mejorar las capacidades de razonamiento abstracto de los modelos de lenguaje grandes (LLMs), centrándose específicamente en el benchmark del Corpus de Abstracción y Razonamiento (ARC). Los autores argumentan que la actualización dinámica de los parámetros del modelo durante la inferencia, utilizando una pérdida derivada de los datos de entrada, puede mejorar significativamente el rendimiento en tareas de razonamiento novedosas.
El Ajuste Fino Dirigido y la Aumentación de Datos son Cruciales
El pre-entrenamiento del LLM en tareas sintéticas similares a ARC, combinado con una nueva estrategia de aumento de datos "leave-one-out" durante el TTT, demostró ser esencial para obtener ganancias efectivas en el rendimiento. Esta estrategia implica crear nuevos ejemplos de entrenamiento omitiendo iterativamente un ejemplo del conjunto de entrenamiento original y aplicando varias transformaciones invertibles (rotaciones, volteos, permutaciones de color, etc.) a los ejemplos restantes.
La Adaptación por Instancia Mejora el Rendimiento
El entrenamiento de adaptadores específicos para cada tarea utilizando Low-Rank Adaptation (LoRA) para cada tarea de ARC superó significativamente el uso de un adaptador compartido en todas las tareas. Este entrenamiento individualizado permite que el modelo especialice sus parámetros para cada problema de razonamiento único.
Inferencia Aumentada con Autoconsistencia Mejora las Predicciones
Una estrategia de inferencia aumentada, que implica aplicar transformaciones geométricas invertibles a la entrada y agregar predicciones a través de un esquema de votación jerárquica, aumentó aún más la precisión. Este enfoque aprovecha las simetrías inherentes dentro de las tareas de ARC para generar múltiples candidatos de predicción y seleccionar los más consistentes.
Fuente(s):
Sigue leyendo
Posts relacionados
Dec 8, 2024
0ComentariosPydanticAI: Aplicaciones de grado de producción con IA generativa
PydanticAI es un framework de Python diseñado para simplificar el desarrollo de aplicaciones de grado de producción utilizando IA generativa.
Nov 29, 2024
0ComentariosOptimización del cómputo en tiempo de prueba para mejorar el rendimiento de los LLM
Explora cómo la optimización del cómputo en tiempo de prueba puede mejorar significativamente el rendimiento de los Modelos de Lenguaje Grandes (LLM) de manera más efectiva que escalar los parámetros del modelo.
Nov 25, 2024
0ComentariosResumen de LiteLLM: Funciones Avanzadas y Casos de Uso
LiteLLM es una herramienta versátil diseñada para facilitar las interacciones con una amplia variedad de Modelos de Lenguaje Grande (LLMs) utilizando una interfaz unificada. Soporta más de 100 LLMs y ofrece características como balanceo de carga, seguimiento de costos y lógica de reintento, lo que la hace adecuada tanto para desarrolladores como para equipos de habilitación de IA.