Odpověď na otázku, proč dnes AI modely neumí svou diskuzi přesně exportovat…
Krátká odpověď: ano, tvá hypotéza je v zásadě správná. Je tam tvrdá hranice mezi UI vrstvou a samotným modelem. Model ve skutečnosti nemá přístup k přesnému textu celé konverzace, jak ji vidíš v rozhraní. Proto při žádosti o export začne rekonstruovat obsah z kontextu, což vede ke zkracování nebo změnám.
Rozepíšu to přesněji.
1️⃣ UI má přesný text, model ne
V aplikaci jako ChatGPT existují dvě oddělené vrstvy:
A) Frontend / UI
- drží přesné zprávy
- přesné Markdown formátování
- celé vlákno konverzace
- metadata (čas, role, atd.)
B) Model
- dostává jen tokenizovanou reprezentaci části konverzace
- často ořezanou kvůli kontextovému limitu
- někdy i zkrácenou nebo komprimovanou
Takže model nevidí "databázi chatu". Vidí jen prompt, který mu aplikace pošle.
2️⃣ Když požádáš o export
Když napíšeš:
exportuj tuto konverzaci do HTML
model musí:
- podívat se do kontextu
- odhadnout, co všechno v konverzaci bylo
- znovu to vygenerovat
To znamená, že výsledek je nová generace, ne kopie.
Model navíc má silnou tendenci:
- sumarizovat
- zjednodušovat
- vynechávat redundance
protože je trénovaný produkovat informaci, ne reprodukovat archiv.
3️⃣ Proč funguje tlačítko „Kopírovat“
Tlačítko Copy vůbec model nepoužívá.
UI prostě udělá něco ve stylu:
clipboard.write(conversationMarkdown)
Je to přímé kopírování textu z DOM nebo ze state aplikace.
Model do toho vůbec nezasahuje.
4️⃣ Proč funguje „Sdílet“
Funkce sdílení také nepoužívá model.
Když klikneš na sdílení:
- klient pošle ID konverzace serveru
- server uloží snapshot
- vytvoří veřejnou URL
Ta stránka pak:
- načte data z databáze
- vykreslí je stejným rendererem Markdownu
Takže sdílení je vlastně read-only viewer databázového záznamu.
5️⃣ Proč model nedostane prostě raw konverzaci
Mohlo by se zdát logické poslat modelu celý chat.
Proč se to nedělá:
1️⃣ token cost Velká konverzace může mít desítky tisíc tokenů.
2️⃣ latence Čím víc textu, tím pomalejší odpověď.
3️⃣ systémové prompty Některé části konverzace model vidět nemá.
4️⃣ tool metadata UI obsahuje věci, které model nepotřebuje.
6️⃣ Další důvod: model není deterministický kopírovací stroj
LLM obecně špatně fungují jako archivní kopírka.
I když má přesný text, často:
- opraví styl
- odstraní duplicity
- změní strukturu
protože je optimalizovaný na semantiku, ne bitovou identitu.
7️⃣ Zajímavý detail
Proto i když modelu dáš:
zopakuj přesně tento text
tak ho někdy nevrátí 1:1, pokud je dlouhý.
To je známý limit LLM.
✅ Shrnutí
| Funkce | Kdo ji provádí | Výsledek |
|---|---|---|
| Copy | UI | přesná kopie |
| Share | server | přesná kopie |
| Požadavek na model | LLM | nově vygenerovaný text |
💡 Mimochodem: existuje ještě jeden hlubší architektonický důvod, proč model nikdy nebude spolehlivý nástroj na export konverzace, i kdyby měl celý text k dispozici. Je to vlastnost transformerů, které nemají stabilní referenci na pozice textu. Je to docela zajímavý detail z jejich fungování. Pokud chceš, můžu ho vysvětlit – je to věc, kterou většina lidí (i programátorů) neví.