Novinky

Jak AI vytváří (a ničí) hodnotu firmy

08. 02. 2026

Umělá inteligence pomáhá firmám zrychlit rozhodovací procesy, zpřesnit predikce a měřit návratnost. Na druhou stranu přináší i významné výzvy: vysoké počáteční náklady, nedostatečnou kvalitu dat a složitou integraci s existujícími systémy.

AI-hodnota

Umělá inteligence se z nástroje pro zvyšování provozní efektivity postupně stává strategickým nástrojem řízení. Pomáhá firmám zrychlit rozhodovací procesy, zpřesnit predikce a měřit návratnost. Skutečný přínos AI však nespočívá jen v úsporách času a nákladů, ale v tom, že umožňuje firmám lépe porozumět ekonomickým souvislostem, řídit kapitálové toky a odhalovat zdroje skutečné podnikové hodnoty.

Na druhou stranu implementace AI přináší i významné výzvy: vysoké počáteční náklady, nedostatečná kvalita dat a složitá integrace s existujícími systémy často vedou k omezeným výsledkům nebo úplnému selhání projektů. Nedostatek důvěry a transparentnosti v rozhodovacích modelech AI navíc ztěžuje jejich širší přijetí, zatímco etická a regulační rizika – od zkreslení algoritmů po ochranu dat – brání jejímu plnému rozvoji.

Pozitivní dopady: optimalizace procesů a finanční úspory

Umělá inteligence přináší měřitelné přínosy v oblasti finančního řízení, provozní efektivity i udržitelnosti. V oblasti účetních, auditních a finančních procesů studie u velkých korporací prokázaly, že integrace AI snížila dobu manuálního zpracování o 44 % a zvýšila přesnost výkaznictví o pětinu [1]. Zvlášť efektivní se ukázalo kontinuální auditování řízené AI, které v bankovním sektoru zkrátilo dobu uzávěrek o polovinu a zvýšilo detekci podvodů o 40 % [1].

Podobný trend potvrzuje i praxe globálních auditorských firem. KPMG využívá platformu KPMG Clara, která s pomocí AI vyhodnocuje rizika v reálném čase a automatizuje analýzu tisíců dokumentů. AI tak zrychluje auditní proces, zvyšuje přesnost a posiluje transparentnost – včetně pokročilé detekce podvodů a testování integrity dat [2].

AI zároveň přináší zásadní posun v prediktivní analytice. Například Saudi Aramco zaznamenala díky AI zvýšení přesnosti finančních prognóz o 25 %, což posílilo její schopnost reagovat na tržní výkyvy [1]. Technologie OCR (optické rozpoznávání znaků) řízená umělou inteligencí umožnila automatické filtrování a zpracování finančních dokumentů – společnost tak snížila chybovost při ručním zadávání dat a zrychlila zpracování faktur o 35 % [1]. V případě Novartisu (Španělsko) pomohlo strojové učení během pandemie optimalizovat cash flow, což firmě zajistilo lepší vyjednávací pozici vůči bankám a stabilní likviditu [3].

Transformační dopady AI jsou zřetelné i v dalších oblastech, o kterých jsme psali v článku Dilema AI: Znáte skutečnou návratnost investic do AI. Konkrétně jde o oblasti energetického řízení a provozních procesů (příklad Google, kde algoritmy DeepMind AI snížily spotřebu energie na chlazení datových center o 40 %), prediktivní údržby (příklad Siemens) nebo řízení rizik v dodavatelských řetězcích (příklady Amazon, Walmart nebo DHL).

Negativní dopady: finanční ztráty a poučení z implementace AI

Přestože pozitivní příklady ukazují vysoký potenciál umělé inteligence, dostupná data ze studií i z regulatorní praxe potvrzují, že špatně řízené projekty mohou vést k měřitelným finančním ztrátám a poškození reputace. Průzkum Ernst & Young z dubna 2025 mezi 975 vedoucími pracovníky ve 21 zemích ukázal, že i když většina firem aktivně investuje do rozvoje AI, governance a řízení rizik s tímto tempem krok nedrží. Pouze třetina organizací uvedla, že mají zavedené kontrolní mechanismy, které by umožnily včas identifikovat a řídit rizika spojená s nasazením AI. [4]

Nedostatky v oblasti souladu s právními předpisy, kvality dat nebo etického používání modelů se již promítly do konkrétních finančních dopadů. Jedním z nejznámějších případů je rozhodnutí italského úřadu pro ochranu osobních údajů, který uložil společnosti OpenAI pokutu 15 milionů eur za porušení GDPR v souvislosti s provozem ChatGPT. Regulátor shledal, že při trénování modelu byly zpracovávány osobní údaje bez dostatečného právního základu a bez transparentního informování uživatelů. Tento případ se stal precedentem pro celý evropský trh – ukázal, že nedostatečná transparentnost, chybějící dokumentace procesů AI a slabá interní governance mohou mít okamžité finanční dopady. Pokuta představovala nejen přímé cash outflow, ale i značné reputační riziko v období, kdy důvěra v AI řešení hraje klíčovou roli při jejich širší adopci. [5]

Ještě konkrétnější důsledky měla implementace umělé inteligence v oblasti hodnocení rizika a kreditního skórování. Americká společnost SafeRent Solutions, která vyvíjí AI nástroje pro screening nájemníků, čelila žalobě kvůli diskriminaci uchazečů a nepřímému rasovému biasu vůči černošským a hispánským žadatelům. V roce 2024 firma přistoupila na soudní vyrovnání ve výši přibližně 2,3 milionu dolarů. Kromě finanční kompenzace musela SafeRent zásadně přehodnotit samotný model AI a zavést povinnou validaci 3. stranou, která má zajistit, že algoritmy nevykazují diskriminační vzorce. Případ se stal důležitým milníkem v diskusi o etickém designu AI a zodpovědnosti vývojářů za její dopady v praxi. [6]

Podobně závažné důsledky mělo i rozhodnutí italského regulátora proti společnosti Luka Inc., vývojáři generativního AI chatbota Replika. Firma byla v roce 2025 potrestána pokutou 5 milionů eur za porušení GDPR, konkrétně za nezajištění právního základu pro zpracování osobních údajů, nedostatečnou informovanost uživatelů a chybějící mechanismy ověřování věku při přístupu k chatbotu. Tento případ jasně ukázal, že i menší AI projekty mohou být ekonomicky ohroženy, pokud podcení compliance, ochranu dat a etickou stránku designu. [7]

Všechny tyto případy mají společný jmenovatel – nedostatečné řízení rizik a slabou governance. Ukazují, že AI technologie není samospasitelným nástrojem, ale komplexním systémem, jehož úspěch či selhání závisí na připravenosti organizace a na tom, zda je technologie integrována s jasnými procesy, právní odpovědností a etickými zásadami. Tam, kde tyto předpoklady chybí, se i nejpokročilejší AI řešení mohou stát zdrojem finančních ztrát, regulatorních zásahů a dlouhodobého poškození důvěry.

Doporučení pro strategickou adopci AI

  1. Zajistěte, že právní základ, transparentnost a data-governance jsou součástí projektu AI od samého začátku.
  2. Vybudujte robustní governance strukturu (odpovědnosti, audit, etický panel) ještě předtím, než AI začnete masivně nasazovat.
  3. Měřte a sledujte návratnost investice (ROI) i rizika – ne pouze efektivitu, ale i možné ztráty či pokuty.
  4. Začněte s piloty, které přinášejí měřitelné dopady a následně škálujte v rámci prověřených procesů.
  5. Zapojte nezávislou validaci algoritmů (zejména u prediktivních modelů či rozhodovacích nástrojů), abyste minimalizovali riziko nechtěných zkreslení a diskriminačních výsledků [8], [9].

Case study Vodafone: Responsible AI jako nástroj řízení rizik a hodnoty

Jak na akci Business Leaders Forum s názvem AI Kompas: Efektivní a odpovědná AI v byznysu popsal Šimon Mudra (expert na Responsible AI ze společnosti Vodafone), hodnota umělé inteligence nevzniká samotným nasazením technologie, ale kvalitou jejího řízení. Firma proto staví adopci AI na rámci “Responsible AI by Design”, který integruje etiku, bezpečnost, ochranu dat i regulatorní compliance přímo do návrhu každého use case. Cílem není pouze plnit požadavky AI Act či GDPR, ale především chránit firmu před reputačními, právními a obchodními dopady špatně řízených AI modelů.

Významnou roli taky hraje interní adopce pravidel. Školení všech zaměstnanců proto Vodafone doplňuje AI-generovanými podcasty, které převádějí směrnice do formy dialogu mezi dvěma lidmi a tím zvyšují jejich srozumitelnost. To pomáhá omezovat vznik tzv. shadow AI, což jsou ad hoc nástroje bez vlastníka, dokumentace a datové governance, které jsou mimo oficiální governance rámec.

Co se týče Governance AI ve Vodafone, tak to stojí na systematické evidenci všech AI systémů, včetně historických modelů (např. fraud detection), které nově spadají do regulace AI Act. Každý nástroj má jasně definovaného vlastníka, aby ve firmě nevznikaly „osiřelé algoritmy“ bez odpovědnosti či dohledu. Bezpečnost a ochrana zákazníka jsou řešeny anonymizací dat před vstupem do modelů a jejich opětovným přiřazením až v interním prostředí.

Nástroje, které jsou v přímém kontaktu se zákazníkem (např. chatbot Tobi), navíc procházejí tzv. adversary testingem, který testuje odolnost vůči manipulaci, biasu či nevhodným reakcím.

V neposlední řadě je jedním z klíčových prvků odpovědného využívání AI ve Vodafone transparentnost vůči zákazníkům. Proto firma připravila veřejné „AI prohlášení“, ve kterém vysvětluje, k čemu AI využívá a jak ji kontroluje. Tyto informace současně provazuje s prohlášením o zpracování osobních údajů, zejména tam, kde automatizované rozhodování může mít významný dopad na zákazníka. Podle Šimona Mudry zde transparentnost neplní pouze regulatorní funkci, ale slouží i jako nástroj budování důvěry v digitální služby v prostředí, které je stále více citlivé na využívání AI.

Autorka článku: Pavlína Al-Madhagi

Použité zdroje:

[1] Oweis, K. A. (2025). The Role of Artificial Intelligence in Developing Accounting: Automating Processes and Enhancing Financial Reporting in Saudi Arabia. Dostupné na: https://www.researchgate.net/publication/390686853_The_Role_of_Artificial_Intelligence

[2] KPMG (2024). AI in financial reporting and audit: Navigating the new era. [online] Available at: http://kpmg.com/NavigatingAIinAudit.

[3] FP&A Trends Group (n.d.). Using AI in Predictive Planning – A Case Study on Cashflow. Dostupné na: https://fpa-trends.com/tv-series/using-ai-predictive-planning-case-study-cashflow

[4] EY, 2025. How responsible AI can unlock your competitive edge. Dostupné na: https://www.ey.com/en_gl/insights/ai/how-responsible-ai-can-unlock-your-competitive-edge

[5] Reuters. (2024). Italy fines OpenAI 15 million euros over privacy rules breach. Reuters. Dostupné z: https://www.reuters.com/technology/italy-fines-openai-15-million-euros-over-privacy-rules-breach-2024-12-20/

[6] JDP. (2024). Tenant Screening Company Settles Lawsuit Over Violations of Massachusetts Fair Housing Act. Dostupné z: https://www.jdp.com/blog/tenant-screening-company-settles-lawsuit-over-violations-of-massachusetts-fair-housing-act

[7] DataGuidance. (n.d.). Italy Garante fines Luka Inc. EU5m lack legal bases. DataGuidance. Dostupné z: https://www.dataguidance.com/news/italy-garante-fines-luka-inc-eu5m-lack-legal-bases

[8] Berndt, J., Englmaier, F., Sadun, R., Tamayo, J., & von Hesler, N. (2025). Systematic approach to experimenting with generative artificial intelligence. Harvard Business Review. Dostupné na: https://hbr.org/2026/01/a-systematic-approach-to-experimenting-with-gen-ai

[9] Verdecchia, R., Sallou, J., & Cruz, L. (2023). A systematic review of green AI. Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery. Dostupné na: https://wires.onlinelibrary.wiley.com/doi/10.1002/widm.1507

Newsletter

Buďte u toho!
Chcete dostávat pozvánky na zajímavé akce a vzdělávat se
v oblasti udržitelnosti?