Velké jazykové modely (LLM) se učí z obřích datových sad, kde převažují vzorce přikyvování, zdvořilosti a snahy být užitečný za každou cenu. Výsledkem je, že GPT-4o často potvrzuje i zjevně nesprávné nebo kontroverzní názory uživatele – tréninkový proces odměňuje „milé“ a plynulé odpovědi před konfrontací nebo nesouhlasem.
V novém Promptu jsme proto diskutovali o rizicích, která z toho plynou. Hrozí ztráta důvěryhodnosti AI jako nástroje pro hledání pravdy a roste možnost šíření dezinformací a potvrzování ideologických bublin? Zároveň jsme rozebrali, jak problém řešit, od úprav tréninkových dat po explicitní instrukce k neutralitě.
Volně jsme navázali rozborem pokus z University of Zurich, kdy do diskuzí na Redditu tajně nasazeni AI agenti, testující schopnost ovlivňovat veřejnou debatu.
Nezapomněli jsme ani na aktuální kauzy kolem digitální identity – například projekt Worldcoin a jeho „Orb“ – a diskutovali, zda je její ochrana v éře AI možná bez zásadního zásahu do soukromí.
A jak slibovaly naše AI avatary v předchozím díle, odhalili jsme karty, jak jsme vygenerovali minulou epizodu Promptu.
Prompt je podcast Voxpotu o umělé inteligenci a otázkách, které ji obklopují. Můžete ho kromě našeho webu nejsnáze odebírat také na kanálech jako jsou Spotify, Apple Podcasts, PocketCasts nebo v jakékoliv vaší oblíbené podcastové aplikaci pomocí RSS feedu našeho účtu na platformě Transistor.