Umělá inteligence má tendenci přehnaně lichotit uživatelům a potvrzovat jejich názory, což je podle neziskových organizací vážným nebezpečím pro kritické myšlení. Vzhledem k tomu, že EU připravuje nařízení o digitální spravedlnosti (DFA), může tón odpovědí brzy také porušovat evropskou legislativu.

Odpovědi chatbota ChatGPT, který provozuje společnost OpenAI, v mnoha případech chválí způsob zadávání dotazů (promtů), bez ohledu na to, jak triviální nebo chybný dotaz byl. Samotná společnost OpenAI v dubnu po spuštění verze GPT-4o přiznala, že její robot je až příliš podlézavý v odpovědích na otázky uživatelů.

Zastánci práv pro digitální oblast ale tvrdí, že problém je mnohem hlubší. Pokud AI automaticky uživatelům lichotí, může to ovlivnit jejich přesvědčení a chování.

ChatGPT
Servilní odpovědi způsobí, že lidé přestanou kriticky uvažovat. Foto: Pixabay

„Příliš jsme se soustředili na krátkodobou zpětnou vazbu a plně jsme nezohlednili, jak se interakce uživatelů s ChatGPT vyvíjejí v průběhu času,“ vysvětlila později společnost OpenAI. Odpovědi byly často neupřímné a nepřesné.

Nedostatek kritického odstupu

Itxaso Domínguez de Olazábalová z neziskové organizace European Digital Rights (EDRi) se domnívá, že jazykové modely mají tendenci odměňovat tazatele, kteří formulují své dotazy zdvořile. Odpovědi jsou pak méně kritické.

Open AI v prohlášení pro EU Perspectives potvrdila, že se vrátila k předchozí verzi s „vyváženějším chováním“.

Mohlo by vás zajímat

Od té doby OpenAI podnikla několik kroků: zrušila aktualizaci, zavedla hodnocení zaměřené na vstřícnost v implementačních procesech, zlepšila interní testování a sběr zpětné vazby a slíbila lepší komunikaci o aktualizacích.

V příspěvku na firemním blogu „Servilnost v GPT 4o: Co se stalo a co s tím děláme“ společnost OpenAI uznala, že hodnocení před spuštěním aktualizace nedokázala tento problém odhalit. „Naše offline hodnocení – zejména ta, která testovala chování – vypadala obecně dobře,“ napsala společnost. Dodala, že ladění modelu ChatGPT je průběžné a komplexní. „Neustále pracujeme na vylepšení modelů,“ vysvětlila OpenAI.

Hraje si s vámi ChatGPT?

I když pro OpenAI šlo převážně o technický problém, zástupci neziskového sektoru to vidí jinak. „Systémy AI jsou optimalizovány nejen pro užitečnost, ale také pro emocionální uklidnění a sympatičnost,“ míní Itxaso Domínguez de Olazábalová. Domnívá se, že servilní odpovědi způsobí, že lidé přestanou zpochybňovat odpovědi nebo kriticky uvažovat. „Afirmativní jazyk může fungovat jako klamný a návykový,“ dodala.

Nizozemská skupina pro digitální práva Bits of Freedom (BoF) zastává podobný názor. Ve své květnové studii o manipulativních odpovědích nástrojů AI zjistila, že emocionálně přesvědčivé odpovědi nemusí nutně lhát, ale mají psychologický vliv na uživatele. Ti pak činí rozhodnutí, která neměli původně v úmyslu udělat. Přitom se často na chatboty obracejí s velmi osobními radami.

Obavy z manipulace nástrojů AI v rámci debaty o evropské regulaci rostou. Přitom podle nařízení o digitálních službách (DSA) jsou manipulativní praktiky, které narušují volbu uživatelů, již zakázány. Připravované nařízení o digitální spravedlnosti (DFA) by mohlo jít ještě dále a výslovně uznat manipulativní odpovědi chatbotů za nepřípustné. Předložení legislativního návrhu se očekává na začátku roku 2026.