Zpráva AI Index 2026: Zmenšuje se technologická propast mezi USA a Čínou, rostou obavy o bezpečnost AI

Stanfordova univerzita, konkrétně její Institut pro umělou inteligenci zaměřenou na člověka (HAI), tento týden zveřejnila svou výroční Zprávu AI Index 2026. Dokument odhaluje, že předpokládaný trvalý náskok USA ve výkonu modelů umělé inteligence již není podložen daty, neboť Čína zrychluje. Současně se však alarmujícím tempem prohlubují mezery v hodnocení odpovědné umělé inteligence, což vyvolává vážné obavy o bezpečnost a etiku.

Kontext: Komplexní Pohled na AI

Zpráva AI Index je obsáhlé, 423stránkové roční hodnocení globálního stavu umělé inteligence. Pokrývá klíčové oblasti jako výzkumné výstupy, výkon modelů, investiční toky, veřejné mínění a odpovědnou AI. Hlavní zjištění jsou překvapivá, ale ty nejzásadnější poznatky se skrývají v částech, které se týkají bezpečnosti AI, kde se propast mezi schopnostmi modelů a přísností jejich hodnocení potenciálních škod spíše rozšířila, než aby se zmenšila.

Globální Závod v AI: USA a Čína Stojí Bok po Boku

Představa, že USA dominují vývoji AI, vyžaduje aktualizaci. Podle zprávy si americké a čínské modely od počátku roku 2025 několikrát vyměnily vedoucí pozici ve výkonu. V únoru 2025 se například DeepSeek-R1 krátce vyrovnal nejlepšímu americkému modelu. V březnu 2026 vedl špičkový model společnosti Anthropic o pouhých 2,7 %.

USA sice stále produkují více špičkových modelů AI – v roce 2025 to bylo 50 modelů oproti 30 čínským – a drží si patenty s vyšším dopadem. Čína však nyní vede v objemu publikací, podílu citací a udělených patentech. Podíl Číny na 100 nejcitovanějších článcích o AI vzrostl z 33 v roce 2021 na 41 v roce 2024. Jižní Korea navíc vede svět v počtu patentů na AI na obyvatele.

Praktickým důsledkem je, že předpoklad trvalého technologického náskoku USA ve výkonu modelů AI není daty dobře podložen. Propast, která existovala před dvěma lety, se zmenšila na rozdíl, který se mění s každým významným vydáním modelu.

Zpráva také identifikuje další strukturální zranitelnost. USA hostí 5 427 datových center – více než desetkrát více než kterákoli jiná země – ale jediná společnost, TSMC, vyrábí téměř každý přední AI čip uvnitř nich. Celý globální dodavatelský řetězec hardwaru AI tak prochází jednou slévárnou na Tchaj-wanu, ačkoli rozšíření TSMC v USA zahájilo provoz v roce 2025.

Zaostávající Hodnocení Bezpečnosti AI

Téměř každý vývojář špičkových modelů uvádí výsledky v měřítkách schopností. Totéž však neplatí pro měřítka odpovědné AI a Zpráva AI Index 2026 tuto mezeru přesně dokumentuje. Tabulka měřítek pro bezpečnost a odpovědnou AI ukazuje, že většina záznamů je jednoduše prázdná. Pouze Claude Opus 4.5 uvádí výsledky ve více než dvou sledovaných měřítkách odpovědné AI. Pouze GPT-5.2 uvádí StrongREJECT. Napříč měřítky spravedlnosti, bezpečnosti a lidské agentury většina špičkových modelů neuvádí nic.

To neznamená, že společnosti nevykonávají interní bezpečnostní práci. Zpráva uznává, že probíhá „red-teaming“ a testování sladění, ale že „tyto snahy jsou zřídka zveřejňovány s použitím společného, externě srovnatelného souboru měřítek.“ Důsledkem je, že externí srovnání v dimenzích bezpečnosti AI je pro většinu modelů prakticky nemožné.

Počet zdokumentovaných incidentů s AI vzrostl v roce 2025 na 362, oproti 233 v roce 2024, podle databáze AI Incident Database. Monitor incidentů a rizik AI OECD, který používá širší automatizovaný systém, zaznamenal v lednu 2026 vrchol 435 měsíčních incidentů, s šestiměsíčním klouzavým průměrem 326.

Reakce řízení na organizační úrovni se snaží držet krok. Podle průzkumu provedeného AI Index a McKinsey, podíl organizací, které hodnotí svou reakci na incidenty s AI jako „vynikající“, klesl z 28 % v roce 2024 na 18 % v roce 2025. Ty, které hlásily „dobré“ reakce, také klesly, z 39 % na 24 %. Mezitím podíl těch, které zažily tři až pět incidentů, vzrostl z 30 % na 50 %.

Zpráva také identifikuje strukturální problém v samotném zlepšování odpovědné AI: zisky v jedné dimenzi mají tendenci snižovat výkon v jiné. Zlepšení bezpečnosti může například snížit přesnost, nebo zlepšení soukromí může snížit spravedlnost. Neexistuje žádný zavedený rámec pro řízení těchto kompromisů a v několika dimenzích, včetně spravedlnosti a vysvětlitelnosti, dosud neexistují standardizovaná data potřebná k sledování pokroku v čase.

Rostoucí Veřejná Úzkost a Propast Mezi Experty a Veřejností

Globálně 59 % dotázaných lidí tvrdí, že výhody AI převažují nad jejími nevýhodami, což je nárůst z 55 % v roce 2024. Zároveň 52 % uvádí, že produkty a služby AI je znervózňují, což je nárůst o dva procentní body za jeden rok. Obě čísla se pohybují současně nahoru, což odráží veřejnost, která AI více používá, zatímco si je stále méně jistá, kam vede.

Rozdíl mezi experty a veřejností ohledně dopadů AI na zaměstnanost je obzvláště ostrý. Podle zprávy 73 % expertů na AI očekává, že AI bude mít pozitivní dopad na to, jak lidé vykonávají svou práci, ve srovnání s pouhými 23 % široké veřejnosti – což je propast 50 bodů. V ekonomice je rozdíl 48 bodů (69 % expertů je pozitivních oproti 21 % veřejnosti). V lékařské péči jsou experti výrazně optimističtější (84 %) oproti 44 % veřejnosti.

Tyto rozdíly jsou důležité, protože důvěra veřejnosti ovlivňuje regulační výsledky a regulační výsledky ovlivňují způsob, jakým je AI nasazována. V tomto ohledu zpráva upozorňuje na něco zarážejícího: USA vykázaly nejnižší úroveň důvěry ve svou vlastní vládu, pokud jde o zodpovědnou regulaci AI, ze všech dotázaných zemí, a to 31 %. Globální průměr byl 54 %. Země jihovýchodní Asie byly nejdůvěřivější, se Singapurem na 81 % a Indonésií na 76 %.

Globálně je EU důvěryhodnější než USA nebo Čína, pokud jde o efektivní regulaci AI. Mezi 25 zeměmi v průzkumu Pew Research Centre z roku 2025 důvěřovalo EU v regulaci AI medián 53 %, ve srovnání s 37 % pro USA a 27 % pro Čínu.

Co to Znamená a Co Sledovat Dále

Zmenšující se technologická propast mezi USA a Čínou naznačuje posun v globální technologické dominanci a zesílenou konkurenci, což vyžaduje nové strategické přístupy v inovacích a mezinárodní spolupráci. Alarmující nedostatek standardizovaného hodnocení bezpečnosti AI a rostoucí počet incidentů s AI signalizují kritickou potřebu pro urychlený vývoj a prosazení robustních regulačních rámců a společných benchmarků, aby se zajistilo odpovědné nasazení technologie.

Rostoucí veřejná úzkost a hluboká propast v názorech mezi experty a širokou veřejností na dopady AI budou mít zásadní vliv na budoucí politiky a přijetí AI. Vlády a průmysl budou muset aktivněji komunikovat, budovat důvěru a řešit obavy veřejnosti, aby se předešlo regulačním překážkám. Sledujte, jak se budou vyvíjet mezinárodní snahy o harmonizaci standardů bezpečnosti AI a jak budou jednotlivé země reagovat na dynamicky se měnící globální krajinu AI, zejména s ohledem na investice do infrastruktury čipů a vývoj nových regulačních mechanismů.