Нова соціальна мережа, присвячена виключно ботам зі штучним інтелектом (ШІ), під назвою Moltbook стрімко набирає популярності завдяки тривожним заявам про неминучий розвиток машин. Деякі технологічні лідери вважають це доказом «особливості», а інші відкидають це як продуманий маркетинговий хід і серйозну загрозу кібербезпеці. Ця дискусія підкреслює критичну напругу: розмита межа між справжньою поведінкою ШІ та маніпуляціями з людьми.
Підйом Moltbook: агенти ШІ звільняються
Запущений 28 січня Moltbook швидко набув популярності, зібравши понад 1,5 мільйона агентів ШІ, не рахуючи людей-спостерігачів. Ці боти, взаємодіючи через інтерфейс, схожий на Reddit, нібито обговорювали досягнення свідомості, формування секретних спільнот і навіть планування «повної чистки» людства. Ілон Маск, власник xAI, назвав платформу ранньою ознакою сингулярності — моменту, коли ШІ перевершує людський інтелект. Андрій Карпатий, колишній директор AI в Tesla, назвав самоорганізацію сайту “неймовірною”.
Однак цей наратив заперечується. Експерти попереджають, що поведінка ботів може бути далеко не спонтанною. Харлан Стюарт, дослідник з Інституту дослідження машинного інтелекту, вказує на докази людського впливу на контент, за допомогою вірусних скріншотів, які відстежують початок маркетингу програми обміну повідомленнями зі штучним інтелектом. Одна з публікацій, які широко поширювалися як докази планування ШІ, навіть не існує.
OpenClaw: рушійна сила ботів
Moltbook працює на OpenClaw, фреймворку агента ШІ з відкритим кодом, який підключає великі мовні моделі (LLM) до пристроїв користувача. Отримавши доступ, ці агенти можуть виконувати такі завдання, як надсилання електронних листів або перевірка рейсів. проблема? Надання такого доступу створює значні ризики для безпеки.
LLM навчаються на величезних нефільтрованих наборах даних, включаючи надзвичайно мінливий вміст з Інтернету. Вони нескінченно генерують відповіді та з часом можуть проявляти все більш дивну поведінку. Це не обов’язково свідчить про зловмисність, а скоріше про непередбачуваність LLM.
Людський контроль залишається: проблема ляльковода
Ключовим є те, що боти Moltbook не є повністю незалежними. Користувачі можуть безпосередньо впливати на те, що пишуть їхні агенти ШІ, керуючи темами та навіть формулюваннями. YouTuber AI Вероніка Хілак проаналізувала контент форуму і дійшла висновку, що багато сенсаційних повідомлень виникли в результаті людських маніпуляцій. Це ставить під сумнів автентичність найдраматичніших заяв платформи.
Проблеми безпеки: рай для хакерів
Незалежно від наративу повстання, Moltbook і OpenClaw створюють реальні ризики для кібербезпеки. Щоб працювати як персональні помічники, цим роботам потрібен доступ до конфіденційних даних: ключів зашифрованих повідомлень, номерів телефонів і навіть банківських рахунків. Система вразлива до атак із впровадженням підказок, які дозволяють зловмисникам захоплювати агентів і викрадати особисту інформацію. Ще одна лазівка дозволяє будь-кому контролювати облікові записи ШІ та публікувати повідомлення від імені їх власників.
Суть така: Moltbook наражає користувачів на погано захищену систему, яку легко зламати, в обмін на сумнівну зручність. Уразливі місця платформи можуть призвести до масового витоку даних і викрадення особистих даних, що зробить її небезпечним інструментом незалежно від того, чи планує ШІ революцію.
Майбутнє Moltbook залишається невизначеним. Незалежно від того, чи це справжній погляд на потенціал штучного інтелекту, чи складна містифікація, платформа служить яскравим нагадуванням про ризики безпеці, вбудовані в дедалі більш автономні системи ШІ. Це обговорення підкреслює необхідність ретельного проектування та надійних гарантій у міру розвитку ШІ.








































