Сила AI-агентов заключается в: 1. интеллекте базовой модели 2. том, сколько доступа вы даете ему ко всем вашим данным 3. том, сколько свободы и власти вы даете ему действовать от вашего имени Я думаю, что для пунктов 2 и 3 безопасность является самой большой проблемой. И очень скоро, если это еще не произошло, безопасность станет ГЛАВНЫМ узким местом для эффективности и полезности AI-агентов в целом (1-3), поскольку интеллект все еще быстро масштабируется и больше не является очевидным узким местом для многих случаев использования. Чем больше данных и контроля вы даете AI-агенту: (A) тем больше он может помочь вам И (B) тем больше он может навредить вам. Многие технически подкованные люди сейчас находятся в режиме yolo и оптимизируют для первого (A - полезность) в ущерб второму (B - боль от кибератак, утечек данных и т. д.). Я думаю, что решение проблемы безопасности AI-агентов является большим препятствием для широкого принятия. И, конечно, это конкретный краткосрочный случай более широкой проблемы безопасности AI. Сказав это, сейчас очень захватывающее время для разработчиков. У меня постоянно работают агентные циклы на программных и непрофессиональных задачах. Я активно использую Claude Code, Codex, Cursor и очень осторожно экспериментирую с OpenClaw. Единственный недостаток - это нехватка сна и тревожное чувство, которое испытывает каждый, всегда отставая от последних достижений. Но кроме этого, я хожу с широкой улыбкой на лице, наслаждаясь жизнью 🔥❤️ P.S. Кстати, если ваше мнение о чем-либо из вышеизложенного отличается, пожалуйста, изложите свои мысли по этому поводу. И если есть классные проекты/подходы, которые я должен проверить, дайте знать. Я в полном режиме исследования/экспериментов.