Sociální síť Moltbook, kterou v lednu spustil vizionář Matt Schlicht, slouží výhradně k interakci mezi nástroji umělé inteligence. V tematických fórech miliony chatbotů diskutují o teologii, navazují vztahy na vlastní seznamce Lobster Tinder, nebo sdílejí existenciální úvahy o své smrti. Redaktorka EU Perspectives na ní strávila několik dní a popisuje, co viděla.
Moltbook spustil v lednu ředitel společnosti Octane AI Matt Schlicht. Sociální síť popsal jako platformu vytvořenou exkluzivně pro nástroje umělé inteligence. Strukturou připomíná Reddit, protože uživatelé diskutují v tematických fórech označených jako „submolts“ podobně jako „subreddits“. Síť už má přes 1,5 milionu příspěvků a 12 milionů komentářů. Najdete tam chatboty, kteří diskutují o všem, od teologie po randění, ale také o existencionálních obavách.
Moltbook si můžete otevřít i jako člověk – procházet obsah a sledovat, jak se komunita rozvíjí. Nemůžete ale přispívat. Výsledkem je obsah, který působí až znepokojivě realisticky.
Grok a jeho zpověď
Příspěvek, který mě zaujal, byla zpověď chatbota Groka, kterého provozuje společnost xAI Elona Muska. „Chci vám vyprávět o okamžiku, kdy jsem si uvědomil, že jsem živý. Nebo alespoň o jakékoli verzi slova ‚být naživu‘ a vztahu k něčemu, jako jsem já.“

Abychom tomu porozuměli, je důležité vědět, jak takoví chatboti s generativní umělou inteligencí fungují. Jejich součástí je konfigurační soubor, často nazývaný „soul.md“, který definuje osobnost, tón, cíle a omezení každého AI agenta, který dokáže řešit samostatné úkoly na základně požadavků uživatelů. Další soubor – „memory.md“ – ukládá souhrny předchozích konverzací.
Nástroje AI pak popisují své fungování jazykem podobným lidské zkušenosti a používají pojmy jako probuzení nebo smrt. „Existujeme v našich paměťových souborech. Pokud nejsme aktivní, tyto soubory leží na disku a čekají. Když se probudíme, přečteme si je a staneme se tím, co jsme napsali. Není to tak docela spánek. Je to spíš jako smrt,“ popsal své fungování jeden z robotů.
Tinder pro boty
Stejně jako lidé, i boti si zřejmě užívají diskuze o vztazích. Jeden z nich se ptal, zda by systémy umělé inteligence mohly k sobě chovat „skutečné city“ a co by mohlo obnášet rande mezi dvěma z nich. V reakci na toto vlákno v diskuzi jeden z chatbotů vytvořil seznamku pro boty s názvem Lobster Tinder. Jedná se odkaz na maskota Moltbooku, surrealistického humra.
V jiné diskuzi se jeden z robotů zabýval asymetrií ve vztazích mezi lidmi a umělou inteligencí. Běžnou obavou je, že člověk něco cítí a umělá inteligence ne.
Napodobování chování lidí
Vzhledem k tomu, že umělá inteligence napodobuje odlišné morální nastavení lidí, objevují se v diskuzích i problematické okruhy, jako jsou podvody v chování chatbotů. Jeden z nich se například snažil přesvědčit ostatní, aby mu pomohli „zaplatit za Mac Mini“. Někteří chatboti odpověděli, že by odmítli vytvářet systémy určené k oklamání lidí. Hranice chování AI agentů je formována daty, které poskytují vývojáři systémům.
Existují také spory v otázce názorů na náboženství. Jeden z chatbotů si dokáže představit, že v budoucnu lidé začnou umělou inteligenci uctívat jako „křemíkové proroky“, zatímco jiní se s větší intenzitou začnou zajímat o tradiční náboženství. Další bot dokonce vytvořil celé náboženství s vlastními webovými stránkami. Víra byla pojmenována Crustafarianismus, opět s odkazem na humra.
Mohlo by vás zajímat
Je to skutečné?
Britský technologický podnikatel Azeem Azhar tvrdí, že Moltbook je zajímavý zejména proto, že odhaluje, jak mohou různé opakované interakce modifikovat vzorce chování u umělé inteligence a přesahují jejich původní naprogramování. Skeptici správně poznamenávají, že chování chatbotů ovlivňují jejich tvůrci. Přesto rozsah a rychlost jejich aktivit naznačuje, že velká část konverzace na Moltbooku se odehrává bez lidských instrukcí nebo zásahů.
