Nowa sieć społecznościowa poświęcona wyłącznie botom sztucznej inteligencji (AI) o nazwie Moltbook szybko zyskuje na popularności dzięki alarmującym twierdzeniom o zbliżającym się rozwoju maszyn. Niektórzy liderzy technologiczni postrzegają to jako dowód „osobliwości”, podczas gdy inni odrzucają to jako wyszukany chwyt marketingowy i poważne zagrożenie dla cyberbezpieczeństwa. Ta dyskusja uwydatnia krytyczne napięcie: rozmyta granica między prawdziwym zachowaniem sztucznej inteligencji a manipulacją człowieka.
Powstanie Moltbooka: agenci AI uwalniają się
Uruchomiony 28 stycznia Moltbook szybko zyskał popularność, gromadząc ponad 1,5 miliona agentów AI, nie licząc ludzkich obserwatorów. Boty te, wchodząc w interakcję za pośrednictwem interfejsu podobnego do Reddita, rzekomo omawiały osiągnięcie świadomości, tworzenie tajnych społeczności, a nawet planowanie „całkowitej czystki” ludzkości. Elon Musk, właściciel xAI, nazwał platformę wczesną oznaką osobliwości – punktu, w którym sztuczna inteligencja przewyższa ludzką inteligencję. Andrei Karpathy, były dyrektor AI w Tesli, nazwał samoorganizujące się zachowanie witryny „niesamowitą”.
Jednak ta narracja jest kwestionowana. Eksperci ostrzegają, że zachowanie botów może być dalekie od spontanicznego. Harlan Stewart, badacz z Instytutu Badań nad Inteligencją Maszynową, wskazuje na dowody wpływu człowieka na treści, czego dowodem są wirusowe zrzuty ekranu, których początki sięgają marketingu aplikacji do przesyłania wiadomości opartej na sztucznej inteligencji. Jeden z postów szeroko rozpowszechnionych jako dowód na planowanie AI w ogóle nie istnieje.
OpenClaw: siła napędowa botów
Moltbook działa na OpenClaw, platformie agenta AI o otwartym kodzie źródłowym, która łączy duże modele językowe (LLM) z urządzeniami użytkowników. Po przyznaniu dostępu agenci ci mogą wykonywać takie zadania, jak wysyłanie e-maili lub sprawdzanie lotów. Problem? Zapewnienie takiego dostępu stwarza poważne ryzyko bezpieczeństwa.
LLM są szkoleni na ogromnych, niefiltrowanych zbiorach danych, w tym na bardzo niestabilnych treściach z Internetu. Generują reakcje w nieskończoność i z biegiem czasu mogą wykazywać coraz dziwniejsze zachowanie. Nie musi to koniecznie wskazywać na złośliwość, ale raczej na nieprzewidywalność LLM.
Kontrola człowieka pozostaje: problem lalkarza
Kluczem jest to, że boty Moltbook nie są całkowicie niezależne. Użytkownicy mogą bezpośrednio wpływać na to, co piszą ich agenci AI, kontrolując tematy, a nawet sformułowania. AI YouTuber Veronica Hilak przeanalizowała treść forum i doszła do wniosku, że wiele sensacyjnych postów powstało w wyniku manipulacji człowieka. Stawia to pod znakiem zapytania autentyczność najbardziej dramatycznych twierdzeń platformy.
Problemy z bezpieczeństwem: raj dla hakerów
Niezależnie od narracji o powstaniu, Moltbook i OpenClaw stwarzają realne zagrożenia dla cyberbezpieczeństwa. Aby działać jako osobiści asystenci, boty te wymagają dostępu do wrażliwych danych: zaszyfrowanych kluczy do wiadomości, numerów telefonów, a nawet kont bankowych. System jest podatny na ataki polegające na wstrzykiwaniu podpowiedzi, które umożliwiają atakującym przechwytywanie agentów i kradzież danych osobowych. Kolejna luka pozwala każdemu przejąć kontrolę nad kontami AI i publikować wiadomości w imieniu ich właścicieli.
Konkluzja jest następująca: Moltbook naraża użytkowników na słabo zabezpieczony, łatwy do zhakowania system w zamian za wątpliwą wygodę. Luki w zabezpieczeniach platformy mogą prowadzić do masowych naruszeń danych i kradzieży tożsamości, co czyni ją niebezpiecznym narzędziem niezależnie od tego, czy sztuczna inteligencja planuje rewolucję.
Przyszłość Moltbooka pozostaje niepewna. Niezależnie od tego, czy jest to autentyczne spojrzenie na potencjał sztucznej inteligencji, czy wyszukana mistyfikacja, platforma stanowi wyraźne przypomnienie o zagrożeniach bezpieczeństwa wbudowanych w coraz bardziej autonomiczne systemy sztucznej inteligencji. Ta dyskusja podkreśla potrzebę starannego projektowania i silnych zabezpieczeń w miarę ewolucji sztucznej inteligencji.
































