así que OpenZeppelin auditó EVMBench, ese estándar de seguridad de IA de OpenAI y Paradigm. resulta que los auditores de IA básicamente solo recuerdan errores de sus datos de entrenamiento 🧵 /1
cada informe de auditoría publicado antes del límite de entrenamiento está integrado en el modelo. así que cuando "encuentra" un error de reentrada, no está razonando sobre tu código, simplemente está comparando patrones con cientos de informes que ya ha memorizado
muéstrale un libro de texto sobre reentrancia ERC-777 y se ilumina al instante. hallazgo crítico, aquí está el CVE, aquí hay 12 incidentes similares ¿le muestras un nuevo error contable en un mecanismo que nunca ha visto? señala eventos faltantes y sigue adelante
la parte aterradora no es que se pierda cosas. la parte aterradora es que está completamente segura mientras se pierde cosas. cero vacilación. solo vibras y coincidencia de patrones. indudablemente útil pero también insuficiente
esta es exactamente la razón por la que elegimos auditores humanos para alchemix v3. nuestro sistema de asignación/redención, matemáticas de época+índice empaquetadas, acumuladores de supervivencia. nada de esto existe en ningún corpus de entrenamiento. cero ejemplos. la IA literalmente no puede verlo
110