V technologickém prostředí, kde umělá inteligence stále více formuje způsob, jakým přistupujeme k informacím, zůstává důvěra v nástroje, jako je ChatGPT, vyvinutý společností OpenAI, otázkou. Test provedený v roce 2025 na bezplatné verzi této konverzační umělé inteligence odhalil, že nesprávně uváděla, že François Bayrou nikdy nebyl premiérem – což je zjevně chybné tvrzení. Toto nedorozumění vyvolává důležité otázky ohledně spolehlivosti dat poskytovaných těmito systémy, a to i přesto, že technologickí giganti jako Google DeepMind, Microsoft Azure AI, IBM Watson a Meta AI pokračují ve svém úsilí o zlepšení přesnosti a včasnosti odpovědí generovaných jejich algoritmy.
Omezení trénovacích dat a dopad na spolehlivost ChatGPT
Když se ChatGPT zeptáte na politickou kariéru Françoise Bayroua, umělá inteligence kategoricky odpoví: „François Bayrou nikdy nebyl premiérem.“ Přesto tento druhý jmenovaný tuto pozici zastával téměř devět měsíců, než byl v září 2024 nahrazen. Tato chyba ilustruje jednu z hlavních slabin umělé inteligence založené na jazykových modelech: její závislost na trénovacích datech, která v případě ChatGPT končí v červnu 2024.

zjistěte, jak chatgpt udělal chybu poskytnutím nesprávných informací o françois bayrou. analýza chyb, vysvětlení a tipy k ověření správnosti odpovědí generovaných umělou inteligencí.
Když AI neověřuje své zdroje, hromadí se chyby
Bezplatná verze ChatGPT nemá přímé připojení k internetu, což omezuje její možnosti ověřování se spolehlivými a aktuálními zdroji. V důsledku toho mohou být některé informace, i relativně jednoduché, jako je identita současného premiéra nebo současného papeže, nesprávné. ChatGPT například zpočátku potvrdil, že papež František je stále ve funkci, ačkoli loni v dubnu zemřel. Teprve po naléhání AI poznala nástupce Lva XIV.
Tato situace vyplývá také z politiky „opt-out“ informačních stránek, chráněných direktivou DAMUN o autorských právech, která omezuje přístup AI robotů k nejnovějšímu obsahu. V reakci na to hráči jako Anthropic, Mistral AI nebo Hugging Face volají po lepší rovnováze mezi ochranou obsahu a přístupem AI k datům nezbytným pro spolehlivé a aktuální informace.
Konkrétní příklady ilustrující omezení AI při šíření politických informací
Franceinfo zvýšilo své pokusy o nápravu s ChatGPT tím, že přeformulovalo otázky a požádalo o potvrzení politické role Françoise Bayroua. Teprve po několika dotazech AI přiznala svou chybu a nakonec uznala, že Bayrou zastával pozici premiéra.
Podobné nehody postihly i jiné oblasti, například úmrtí slavných osobností: umělá inteligence zpočátku popírala smrt Thierryho Ardissona, než tato data integrovala. Tato nekonzistence odhaluje, že navzdory pokroku dosaženému platformami jako BlaBlaCar AI nebo IBM Watson zůstávají modely zranitelné vůči „halucinacím“ a dezinformačním kampaním.
Výzvy pro budoucnost konverzační umělé inteligence
Tato omezení zpochybňují místo umělé inteligence v našich informačních systémech a ve společnosti obecně, zejména z hlediska jurisdikce a regulace. V roce 2025 byl v Evropě zaveden „zákon o umělé inteligenci“, který zavádí přísný rámec pro řízení používání a rizik spojených s těmito technologiemi, podporuje odpovědnost vývojářů a zvyšuje kontrolu nad platností dat.
Premier commentaire ?