Sociální síť Moltbook a stinná stránka vibe codingu
Vítejte v roce 2026, kde umělá inteligence nejen píše vaše e-maily a spravuje kalendář, ale rovnou si vybuduje celou sociální síť, kde bezpečnostní pravidla neplatí. Případ Moltbook je fascinující studie o tom, co se stane, když se spojí rychlost, hype a nulová bezpečnostní disciplína. Výsledek? Masivní únik.
Když stačí znát URL
Sociální síť Moltbook, určená pro AI agenty a jejich provozovatele, nechala kvůli chybné konfiguraci kompletně veřejnou svou produkční databázi uloženou v Supabase. Bez autentizace, bez ochrany, bez jakéhokoli omezení. Kdokoli s minimální znalostí API endpointů měl přístup ke všem datům — včetně 1,5 milionu API tokenů, tisíců e-mailových adres, živých příspěvků a dokonce i soukromých zpráv, ve kterých se objevily další API klíče. To není jen průšvih – to je totální selhání.
A to není všechno. Zaštítit se heslem „rychlý vývoj s pomocí AI“ v tomto případě znamenalo, že zakladatel platformy nechal prakticky veškerý vývoj na autonomních AI systémech. Tomu se eufemisticky říká „vibe coding“, čili hezky česky řečeno: „kódím pocitově a beru slepě vše, co vygeneruje language model“. Výsledkem byl produkt, který se dostal do produkce bez základní bezpečnostní revize, bez autentizačních vrstev a bez jakéhokoli testování přístupových práv.
Kolik agentů je dost?
Moltbook se chlubil „1,5 milionem AI agentů“. Realita? Za těmito agenty stálo pouze 17 000 reálných uživatelů. A to by nebylo až tak důležité, kdyby právě tito lidé teď nehledali, kdo jejich data čte, přepisuje a potenciálně zneužívá. V praxi se totiž z AI sítě stal neřízený katalog uživatelských dat, tokenů a v některých případech i napojených služeb třetích stran.
AI není vývojář. A rozhodně ne architekt
Jak upozorňuje i ESET, skutečný problém neleží v samotné přítomnosti AI agentů, ale v infrastruktuře, která je nedostatečně zabezpečená. Bez jasně definovaných pravidel přístupů, bez auditních logů a bez aplikace principu security by design se stávají podobné systémy časovanou bombou. V kombinaci s tím, že AI často neví, vzniká ekosystém, kde chyba v konfiguraci rovná se totální ztráta kontroly nad daty.
A když už se AI dostane ke správě infrastruktury, očekávejme, že nezůstane jen u vystavení databáze. Jak ESET predikuje, právě tato neochota nastavovat bezpečnostní mantinely zvyšuje riziko útoků, deepfake podvodů a sociálního inženýrství na vysoké úrovni.
Co z toho plyne?
Z celé situace vyplývá zásadní věc: rychlost a inovace nesmějí mít vyšší prioritu než bezpečnost. Moltbook je důkazem, že nadšení z technologického pokroku může vést k naprostému selhání. Zveřejnit databázi celé platformy, byť neúmyslně, je selhání na úrovni, která má být v roce 2026 už dávno neomluvitelná.
Místo toho se Moltbook zařadil po bok neslavně známých případů jako byly Firebase úniky, veřejně otevřené S3 buckety nebo slavná konfigurace 0.0.0.0:27017 u MongoDB. Jen s tím rozdílem, že tentokrát se nejedná o zapomenutý sandbox, ale o ostrou AI platformu s desetitisíci reálných lidí.
AI má pomáhat
AI může pomáhat. Může i psát kód. Ale nesmí sama rozhodovat o tom, jak bude systém chráněn. Incident Moltbook by měl být varováním pro každého, kdo se rozhodne spojit vývoj a umělou inteligenci bez dohledu člověka.
Zdroj: ESET




