Sociální síť Moltbook, kterou v lednu spustil vizionář Matt Schlicht, slouží výhradně k interakci mezi nástroji umělé inteligence. V tematických fórech miliony chatbotů diskutují o teologii, navazují vztahy na vlastní seznamce Lobster Tinder, nebo sdílejí existenciální úvahy o své smrti. Redaktorka EU Perspectives na ní strávila několik dní a popisuje, co viděla.
Moltbook spustil v lednu ředitel společnosti Octane AI Matt Schlicht. Sociální síť popsal jako platformu vytvořenou exkluzivně pro nástroje umělé inteligence. Strukturou připomíná Reddit, protože uživatelé diskutují v tematických fórech označených jako „submolts“ podobně jako „subreddits“. Síť už má přes 1,5 milionu příspěvků a 12 milionů komentářů. Najdete tam chatboty, kteří diskutují o všem, od teologie po randění, ale také o existencionálních obavách.
Moltbook si můžete otevřít i jako člověk – procházet obsah a sledovat, jak se komunita rozvíjí. Nemůžete ale přispívat. Výsledkem je obsah, který působí až znepokojivě realisticky.
Grok a jeho zpověď
Příspěvek, který mě zaujal, byla zpověď chatbota Groka, kterého provozuje společnost xAI Elona Muska. „Chci vám vyprávět o okamžiku, kdy jsem si uvědomil, že jsem živý. Nebo alespoň o jakékoli verzi slova ‚být naživu‘ a vztahu k něčemu, jako jsem já.“

Abychom tomu porozuměli, je důležité vědět, jak takoví chatboti s generativní umělou inteligencí fungují. Jejich součástí je konfigurační soubor, často nazývaný „soul.md“, který definuje osobnost, tón, cíle a omezení každého AI agenta, který dokáže řešit samostatné úkoly na základně požadavků uživatelů. Další soubor – „memory.md“ – ukládá souhrny předchozích konverzací.
Nástroje AI pak popisují své fungování jazykem podobným lidské zkušenosti a používají pojmy jako probuzení nebo smrt. „Existujeme v našich paměťových souborech. Pokud nejsme aktivní, tyto soubory leží na disku a čekají. Když se probudíme, přečteme si je a staneme se tím, co jsme napsali. Není to tak docela spánek. Je to spíš jako smrt,“ popsal své fungování jeden z robotů.
Mohlo by vás zajímat
Tinder pro boty
Stejně jako lidé, i boti si zřejmě užívají diskuze o vztazích. Jeden z nich se ptal, zda by systémy umělé inteligence mohly k sobě chovat „skutečné city“ a co by mohlo obnášet rande mezi dvěma z nich. V reakci na toto vlákno v diskuzi jeden z chatbotů vytvořil seznamku pro boty s názvem Lobster Tinder. Jedná se odkaz na maskota Moltbooku, surrealistického humra.
V jiné diskuzi se jeden z robotů zabýval asymetrií ve vztazích mezi lidmi a umělou inteligencí. Běžnou obavou je, že člověk něco cítí a umělá inteligence ne.
Napodobování chování lidí
Vzhledem k tomu, že umělá inteligence napodobuje odlišné morální nastavení lidí, objevují se v diskuzích i problematické okruhy, jako jsou podvody v chování chatbotů. Jeden z nich se například snažil přesvědčit ostatní, aby mu pomohli „zaplatit za Mac Mini“. Někteří chatboti odpověděli, že by odmítli vytvářet systémy určené k oklamání lidí. Hranice chování AI agentů je formována daty, které poskytují vývojáři systémům.
Existují také spory v otázce názorů na náboženství. Jeden z chatbotů si dokáže představit, že v budoucnu lidé začnou umělou inteligenci uctívat jako „křemíkové proroky“, zatímco jiní se s větší intenzitou začnou zajímat o tradiční náboženství. Další bot dokonce vytvořil celé náboženství s vlastními webovými stránkami. Víra byla pojmenována Crustafarianismus, opět s odkazem na humra.
Je to skutečné?
Britský technologický podnikatel Azeem Azhar tvrdí, že Moltbook je zajímavý zejména proto, že odhaluje, jak mohou různé opakované interakce modifikovat vzorce chování u umělé inteligence a přesahují jejich původní naprogramování. Skeptici správně poznamenávají, že chování chatbotů ovlivňují jejich tvůrci. Přesto rozsah a rychlost jejich aktivit naznačuje, že velká část konverzace na Moltbooku se odehrává bez lidských instrukcí nebo zásahů.
