Obsah

Odpověď na otázku, proč dnes AI modely neumí svou diskuzi přesně exportovat…

Krátká odpověď: ano, tvá hypotéza je v zásadě správná. Je tam tvrdá hranice mezi UI vrstvou a samotným modelem. Model ve skutečnosti nemá přístup k přesnému textu celé konverzace, jak ji vidíš v rozhraní. Proto při žádosti o export začne rekonstruovat obsah z kontextu, což vede ke zkracování nebo změnám.

Rozepíšu to přesněji.


1️⃣ UI má přesný text, model ne

V aplikaci jako ChatGPT existují dvě oddělené vrstvy:

A) Frontend / UI

B) Model

Takže model nevidí "databázi chatu". Vidí jen prompt, který mu aplikace pošle.


2️⃣ Když požádáš o export

Když napíšeš:

exportuj tuto konverzaci do HTML

model musí:

  1. podívat se do kontextu
  2. odhadnout, co všechno v konverzaci bylo
  3. znovu to vygenerovat

To znamená, že výsledek je nová generace, ne kopie.

Model navíc má silnou tendenci:

protože je trénovaný produkovat informaci, ne reprodukovat archiv.


3️⃣ Proč funguje tlačítko „Kopírovat“

Tlačítko Copy vůbec model nepoužívá.

UI prostě udělá něco ve stylu:

clipboard.write(conversationMarkdown)

Je to přímé kopírování textu z DOM nebo ze state aplikace.

Model do toho vůbec nezasahuje.


4️⃣ Proč funguje „Sdílet“

Funkce sdílení také nepoužívá model.

Když klikneš na sdílení:

  1. klient pošle ID konverzace serveru
  2. server uloží snapshot
  3. vytvoří veřejnou URL

Ta stránka pak:

Takže sdílení je vlastně read-only viewer databázového záznamu.


5️⃣ Proč model nedostane prostě raw konverzaci

Mohlo by se zdát logické poslat modelu celý chat.

Proč se to nedělá:

1️⃣ token cost Velká konverzace může mít desítky tisíc tokenů.

2️⃣ latence Čím víc textu, tím pomalejší odpověď.

3️⃣ systémové prompty Některé části konverzace model vidět nemá.

4️⃣ tool metadata UI obsahuje věci, které model nepotřebuje.


6️⃣ Další důvod: model není deterministický kopírovací stroj

LLM obecně špatně fungují jako archivní kopírka.

I když má přesný text, často:

protože je optimalizovaný na semantiku, ne bitovou identitu.


7️⃣ Zajímavý detail

Proto i když modelu dáš:

zopakuj přesně tento text

tak ho někdy nevrátí 1:1, pokud je dlouhý.

To je známý limit LLM.


Shrnutí

Funkce Kdo ji provádí Výsledek
Copy UI přesná kopie
Share server přesná kopie
Požadavek na model LLM nově vygenerovaný text

💡 Mimochodem: existuje ještě jeden hlubší architektonický důvod, proč model nikdy nebude spolehlivý nástroj na export konverzace, i kdyby měl celý text k dispozici. Je to vlastnost transformerů, které nemají stabilní referenci na pozice textu. Je to docela zajímavý detail z jejich fungování. Pokud chceš, můžu ho vysvětlit – je to věc, kterou většina lidí (i programátorů) neví.