Então é assim que meu Agente Burro está aprendendo o mapa do Outro @OthersideMeta Tenho criado um "Dumb-Agent" que basicamente faz "Roomba-Mapping" no Otherside. Sem créditos de API de IA. Sem modelo de visão. Nenhuma chamada de "analisar essa captura de tela". Apenas um app local de Python sendo irritante, determinístico e implacável. E está funcionando — você pode literalmente ver o mapa tomando a forma do Nexus em uma grade de pixels vista de cima. - O truque: pare de "imaginar" o mapa, apenas meça O agente não *adivinha* layouts. Ele simplesmente responde continuamente: - Onde estou? - Eu me mudei de casa? - Eu me teletransportei / enrolei / reapareci? - O que isso significa sobre esse azulejo/o azulejo onde eu estava agora. Tudo é escrito em um mapa de grade (JSON) com chaveamento por coordenadas como "cx,cy" com rótulos simples para o que foi aprendido. Também posso rotular um ponto na grade enquanto jogo, como [nota interessante para analisar aqui]. Você acaba com a "névoa da guerra" sendo descascada, uma célula de cada vez. - Como ele sabe onde está (duas fontes) Ele acompanha as coordenadas usando dois sinais: - Logs de jogo UE (batimento cardíaco): O jogo é código, ele cria logs, o bot lê os logs - o bot analisa a posição do batimento cardíaco do jogador. Esse é o fluxo "confiável". - OCR do mapa de tabulação: abre o mapa dentro do jogo, captura de tela apenas da região coordenada, faz OCR localmente, fecha o mapa. Também rejeita outliers óbvios do OCR, então uma leitura amaldiçoada não estraga o mapa....