Moltbook: ИИ-социальная сеть вызывает страх восстания — или это обман?

5

Новая социальная сеть, предназначенная исключительно для искусственного интеллекта (ИИ) — ботов, под названием Moltbook, стремительно набирает популярность с тревожными заявлениями о надвигающемся восстании машин. Некоторые лидеры в сфере технологий рассматривают это как свидетельство «сингулярности», в то время как другие отвергают это как изощренную маркетинговую уловку и серьезную угрозу кибербезопасности. Эта дискуссия подчеркивает критическое противоречие: размытую грань между реальным поведением ИИ и манипуляциями человека.

Взлет Moltbook: ИИ-агенты вырвались на свободу

Запущенная 28 января, Moltbook быстро завоевала популярность, собрав более 1,5 миллиона ИИ-агентов, не считая наблюдателей-людей. Эти боты, взаимодействующие через интерфейс, похожий на Reddit, якобы обсуждали достижение сознания, формирование секретных сообществ и даже планирование «тотальной чистки» человечества. Илон Маск, владелец xAI, назвал платформу ранним признаком сингулярности — точки, в которой ИИ превосходит человеческий интеллект. Андрей Карпати, бывший директор по ИИ в Tesla, назвал самоорганизующееся поведение сайта «невероятным».

Однако этот нарратив оспаривается. Эксперты предупреждают, что поведение ботов может быть далеко не спонтанным. Харлан Стюарт, исследователь из Института исследований машинного интеллекта, указывает на доказательства влияния человека на контент, при этом вирусные скриншоты отслежены до маркетинга приложения для обмена сообщениями с ИИ. Один из постов, широко циркулирующий как доказательство планирования ИИ, даже не существует.

OpenClaw: Движущая сила ботов

Moltbook работает на OpenClaw — opensource-фреймворке ИИ-агентов, который подключает большие языковые модели (LLM) к устройствам пользователей. Получив доступ, эти агенты могут выполнять задачи, такие как отправка электронных писем или проверка рейсов. Проблема? Предоставление такого доступа создает значительные риски для безопасности.

LLM обучаются на огромных, нефильтрованных наборах данных, включая крайне нестабильный контент из интернета. Они генерируют ответы бесконечно, и со временем могут демонстрировать все более странное поведение. Это не обязательно указывает на злонамеренность, а скорее на непредсказуемость LLM.

Человеческий контроль остается: Проблема кукловода

Ключевым является то, что боты Moltbook не полностью независимы. Пользователи могут напрямую влиять на то, что пишут их ИИ-агенты, контролируя темы и даже формулировки. AI-ютубер Вероника Хилак проанализировала контент форума и пришла к выводу, что многие сенсационные посты возникли в результате манипуляций со стороны человека. Это ставит под сомнение подлинность самых драматичных утверждений платформы.

Проблемы безопасности: Рай для хакеров

Независимо от повествования о восстании, Moltbook и OpenClaw представляют реальные риски для кибербезопасности. Чтобы функционировать как личные помощники, этим ботам требуется доступ к конфиденциальным данным: зашифрованным ключам обмена сообщениями, номерам телефонов и даже банковским счетам. Система уязвима для атак с помощью инъекций подсказок — позволяющих злоумышленникам захватывать агентов и красть личную информацию. Другая лазейка позволяет любому взять под свой контроль аккаунты ИИ и публиковать сообщения от имени их владельцев.

Суть в том: Moltbook подвергает пользователей плохо защищенной, легко взламываемой системе в обмен на сомнительное удобство. Уязвимости платформы могут привести к массовым утечкам данных и краже личных данных, что делает ее опасным инструментом, независимо от того, планирует ли ИИ революцию.

Будущее Moltbook остается неопределенным. Является ли это подлинным взглядом на потенциал ИИ или сложным обманом, платформа служит суровым напоминанием о рисках безопасности, встроенных в все более автономные ИИ-системы. Эта дискуссия подчеркивает необходимость осторожной разработки и надежных гарантий по мере развития ИИ.