Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Está sucediendo: investigación autónoma de IA por agentes de IA en nanochat!
629 líneas de código para entrenar GPT-2. Un archivo markdown que define la agenda de investigación. Ese es todo el laboratorio de investigación.
Los investigadores de IA podrían ser los primeros reemplazados por la IA. El resultado más entretenido es el más probable.


8 mar, 03:53
He empaquetado el proyecto "autoresearch" en un nuevo repositorio mínimo y autónomo si la gente quiere jugar durante el fin de semana. Básicamente es el núcleo de entrenamiento de nanochat LLM reducido a una versión de un solo GPU, un archivo de ~630 líneas de código, luego:
- el humano itera sobre el prompt (.md)
- el agente de IA itera sobre el código de entrenamiento (.py)
El objetivo es diseñar tus agentes para que hagan el progreso de investigación más rápido indefinidamente y sin ninguna de tu propia participación. En la imagen, cada punto es una ejecución completa de entrenamiento de LLM que dura exactamente 5 minutos. El agente trabaja en un bucle autónomo en una rama de características de git y acumula commits de git al script de entrenamiento a medida que encuentra mejores configuraciones (de menor pérdida de validación al final) de la arquitectura de la red neuronal, el optimizador, todos los hiperparámetros, etc. Puedes imaginar comparar el progreso de investigación de diferentes prompts, diferentes agentes, etc.
Parte código, parte ciencia ficción, y un toque de psicosis :)

Invocar a GPT-5.4 xhigh y Claude Opus 4.6, dándoles 16 GPUs y dejándolos hacer investigación autónoma en un soleado sábado es extremadamente satisfactorio.
Además, es una buena evaluación para ver cuál modelo es el mejor investigador. Podría publicar resultados interesantes mañana.
320
Parte superior
Clasificación
Favoritos
