Siła agentów AI pochodzi z: 1. inteligencji modelu bazowego 2. tego, ile dostępu mu dasz do wszystkich swoich danych 3. tego, ile wolności i mocy mu dasz, aby działał w twoim imieniu Myślę, że w przypadku punktów 2 i 3, bezpieczeństwo jest największym problemem. I bardzo szybko, jeśli nie już, bezpieczeństwo stanie się GŁÓWNYM wąskim gardłem dla efektywności i użyteczności agentów AI jako całości (1-3), ponieważ inteligencja wciąż szybko rośnie i nie jest już oczywistym wąskim gardłem dla wielu zastosowań. Im więcej danych i kontroli dasz agentowi AI: (A) tym więcej może ci pomóc I (B) tym więcej może ci zaszkodzić. Wiele osób znających się na technologii jest teraz w trybie yolo i optymalizuje na rzecz pierwszego (A - użyteczność) kosztem drugiego (B - ból związany z atakami cybernetycznymi, wyciekami danych itp.). Myślę, że rozwiązanie problemu bezpieczeństwa agentów AI jest dużą przeszkodą dla szerokiej adopcji. I oczywiście, to jest konkretna, krótkoterminowa instancja szerszego problemu bezpieczeństwa AI. Mówiąc to, to jest super ekscytujący czas, aby być żywym dla programistów. Ciągle mam uruchomione pętle agentów w zadaniach programistycznych i nieprogramistycznych. Aktywnie korzystam z Claude Code, Codex, Cursor i bardzo ostrożnie eksperymentuję z OpenClaw. Jedynym minusem jest brak snu i niepokojące uczucie, że wszyscy czują, że zawsze są w tyle za najnowszymi osiągnięciami. Ale poza tym, chodzę z szerokim uśmiechem na twarzy, ciesząc się życiem 🔥❤️ PS: Przy okazji, jeśli twoja intuicja na temat czegokolwiek powyżej jest inna, proszę, przedstaw swoje myśli na ten temat. A jeśli są fajne projekty/podejścia, które powinienem sprawdzić, daj mi znać. Jestem w pełnym trybie eksploracji/eksperymentowania.