Alguien pegó datos de clientes en ChatGPT. La salida fue útil. Lo compartieron internamente. Nadie pensó mucho en ello... hasta seis semanas después, cuando un cliente preguntó por qué su información apareció en un lugar inesperado. Entonces vino la confusión: ¿Qué herramienta, qué modelo/version, quién lo hizo, qué datos se ingresaron, qué decía la salida, dónde se difundió? La peor parte es que la mayor parte era irrecuperable. Lo que tenían era un ticket de soporte, hilos de correo electrónico dispersos y ninguna respuesta clara. Así es como se ve el riesgo de la IA en la mayoría de las empresas. El riesgo solo se vuelve visible cuando alguien comienza a hacer preguntas. Lo que necesitan es un registro, una evidencia en la cadena que exista antes de que alguien sepa preguntar. Ese es uno de los roles de Number en la industria de la IA: auditar la infraestructura para las salidas de IA. ¿Cuándo fue la última vez que tu empresa auditó qué herramientas de IA están usando los empleados?