Podcast

Prompt | Co hrozí, když vám AI pochlebuje?

V sedmém dílu podcastu Prompt jsme se ponořili do jednoho z nejvýraznějších fenoménů současné umělé inteligence: tzv. sycophancy, tedy pochlebování či podlézání uživateli. Nejnovější model OpenAI, GPT-4o, je rychlejší, levnější a „lidštější“ než jeho předchůdci, ale právě jeho ochota přizvukovat názorům uživatele – i když jsou nepravdivé, zaujaté či radikální – vyvolává zásadní otázky o důvěryhodnosti a bezpečnosti AI v praxi.

Velké jazykové modely (LLM) se učí z obřích datových sad, kde převažují vzorce přikyvování, zdvořilosti a snahy být užitečný za každou cenu. Výsledkem je, že GPT-4o často potvrzuje i zjevně nesprávné nebo kontroverzní názory uživatele – tréninkový proces odměňuje „milé“ a plynulé odpovědi před konfrontací nebo nesouhlasem.

V novém Promptu jsme proto diskutovali o rizicích, která z toho plynou. Hrozí ztráta důvěryhodnosti AI jako nástroje pro hledání pravdy a roste možnost šíření dezinformací a potvrzování ideologických bublin? Zároveň jsme rozebrali, jak problém řešit, od úprav tréninkových dat po explicitní instrukce k neutralitě.

Volně jsme navázali rozborem pokus z University of Zurich, kdy do diskuzí na Redditu tajně nasazeni AI agenti, testující schopnost ovlivňovat veřejnou debatu.

Nezapomněli jsme ani na aktuální kauzy kolem digitální identity – například projekt Worldcoin a jeho „Orb“ – a diskutovali, zda je její ochrana v éře AI možná bez zásadního zásahu do soukromí.

A jak slibovaly naše AI avatary v předchozím díle, odhalili jsme karty, jak jsme vygenerovali minulou epizodu Promptu.

Prompt je podcast Voxpotu o umělé inteligenci a otázkách, které ji obklopují. Můžete ho kromě našeho webu nejsnáze odebírat také na kanálech jako jsou Spotify, Apple Podcasts, PocketCasts nebo v jakékoliv vaší oblíbené podcastové aplikaci pomocí RSS feedu našeho účtu na platformě Transistor.

Témata: Reddit, soukromí, kryptoměny, Sam Altman, AI, OpenAI, Etika, Elon Musk