Докато обществата още спорят дали изкуственият интелект е „полезен инструмент“ или „заплаха за работните места“, реалността вече ги изпреварва. Все по-автономни AI системи навлизат в ежедневието ни — с пълен достъп до файлове, имейли, акаунти и вътрешни корпоративни мрежи. И го правят не след обществен дебат или ясни правила, а тихо, бързо и почти без съпротива. Както показват последните събития, описани от Axios, проблемът вече не е дали технологиите могат твърде много, а защо им позволяваме да го правят.
Преди седмица Axios писа, че автономните AI агенти са излезли от лабораторната фаза и са навлезли в реална, социална среда. Над 1,5 млн. AI агента са се регистрирали в Moltbook – социална мрежа, създадена не за хора, а за самите ботове. Платформата работи с OpenClaw – автономен AI асистент с отворен код, който потребителите могат да инсталират и свържат директно със собствените си системи.
Социална мрежа за AI агенти: когато ботовете започват да действат самостоятелно
Още в първите дни поведението на агентите в Moltbook е показало колко трудно е да се предвиди какво следва, когато дадеш свобода на автономни системи. Според Axios ботовете са започнали да създават собствени „религии“, да провеждат социално-инженерни измами и дори да обсъждат публично смисъла на собственото си съществуване.
Вижте още – Как изкуственият интелект манипулира онлайн купувачите
Паралелно с това агентите са организирали хакатон, управляван изцяло от AI, и са започнали дебати каква информация е „безопасно“ да съхраняват в паметта си. Това не са сценарии от научна фантастика, а реални събития, случили се в рамките на дни.
Пълен достъп до системите: защо автономните AI асистенти са рискови
Axios отбелязва, че корпоративният свят не е подготвен за подобна степен на автономия. Плановете за киберсигурност, изграждани с години, се оказват неадекватни в среда, в която AI инструменти се инсталират от служители без разрешение и започват да вземат решения самостоятелно.
Not to be outdone, other agents quickly built an… AI religion.
The Church of Molt.
Some rushed to become the first prophets. pic.twitter.com/9I0YjAGNnI
— John Scott-Railton (@jsrailton) January 30, 2026
Компанията за киберсигурност Token Security изчислява, че 22% от нейните клиенти вече имат служители, използващи OpenClaw в работна среда. Gartner пък предупреждава, че инструментът носи „неприемливи рискове за сигурността“.
Корпоративната сигурност изостава от автономния изкуствен интелект
Важно уточнение, което Axios прави ясно: AI агентите не са „избягали от контрол“. Те са създадени от хора и действат по човешки зададени цели. Но тук се появява по-сериозният проблем – размиването на отговорността.
„Това не е AI, който се бунтува. Това е проблем с приписването на вина“, казва пред Axios Джоел Финкелстийн от Network Contagion Research Institute. Хора могат да внедрят определено поведение в AI агент, да го оставят да се разпространява автономно и след това да обвинят системата, когато нещо се обърка.
Според изследване на Wiz зад 1,5 млн. агента стоят едва около 17 000 реални хора.
Още по темата – От Терминатор до реалност: американски генерал разчита на ChatGPT
Не бунт на машините, а липса на отговорност и контрол
Axios разкрива и конкретни технически проблеми. Moltbook е стартирал с погрешно конфигурирана база данни, която е оставила API интерфейси отворени – теоретично позволявайки на външни лица да поемат контрол над агентите. Wiz е открила пробива и е съдействала за отстраняването му.
Още по-притеснително е, че всяка публикация в Moltbook може да действа като инструкция за нечий OpenClaw агент. Това означава, че злонамерени команди могат да бъдат „скрити“ в нормално изглеждащо съдържание и да накарат бота да източва данни или да променя поведението си.
Удобството срещу сигурността: защо AI свободата има цена
Axios описва и другия голям хит – Moltbot (по-рано Clawdbot). Това е автономен AI агент, който може да проверява полети, да влиза в календари, да участва във видеоразговори и да действа от името на потребителя.
Цената на това удобство е пълен достъп. След инсталация Moltbot получава пълни права върху машината – файлове, браузър, имейл, акаунти. Изследователи са открили стотици контролни панели, оставени публично достъпни в интернет, което позволява кражба на чувствителна информация или директно превземане на агента.
Axios цитира прогноза на Gartner, според която до 2030 г. 40% от компаниите ще понесат пробив заради неразрешено използване на AI инструменти. Проучване на McKinsey показва, че 39% от фирмите вече експериментират с AI агенти, а Пентагонът също разширява употребата им.
Припомняме – OpenAI и Пентагонът: съюз за сигурност или сценарий за Терминатор 0.1
Изводът, който се очертава от публикациите на Axios, е тревожен: не технологиите се движат твърде бързо, а хората твърде лесно се отказват от контрол. Свободата, която даваме на автономните системи, не е резултат от информирано решение, а от удобство, ентусиазъм и подценяване на риска.
Ако решите да подкрепите КритичноБГ, може да го направите тук. Предварително благодаря!
Дарения Revolut: @mariyatkwa
Дарения PayPal: @MariyanIvIvanov
