Jak AI vytváří (a ničí) finanční hodnotu firmy

Umělá inteligence se z nástroje pro zvyšování provozní efektivity stává strategickým nástrojem řízení. Pomáhá firmám zrychlit rozhodovací procesy, zpřesnit predikce a měřit návratnost. Skutečný přínos AI však nespočívá jen v úsporách času a nákladů – ale v tom, že umožňuje firmám lépe porozumět ekonomickým vazbám, řídit kapitálové toky a odhalovat zdroje skutečné podnikové hodnoty.

Na druhou stranu implementace AI přináší i významné výzvy. Vysoké počáteční náklady, nedostatečná kvalita dat a složitá integrace s existujícími systémy často vedou k omezeným výsledkům nebo úplnému selhání projektů. Nedostatek důvěry a transparentnosti v rozhodovacích modelech AI navíc ztěžuje jejich širší přijetí, zatímco etická a regulační rizika – od zkreslení algoritmů po ochranu dat – brání jejímu plnému rozvoji. AI tak zůstává mocným, avšak stále náročně zvládnutelným nástrojem, jehož skutečná hodnota závisí na připravenosti organizace, kultuře řízení a schopnosti spojit technologii s reálnými obchodními cíli.

Pozitivní dopady: optimalizace procesů a finanční úspory

Umělá inteligence přináší měřitelné přínosy v oblasti finančního řízení, provozní efektivity i udržitelnosti. V oblasti účetních, auditních a finančních procesů studie u velkých korporací prokázaly, že integrace AI snížila dobu manuálního zpracování o 44 % a zvýšila přesnost výkaznictví o pětinu (Oweis, 2025). Zvlášť efektivní se ukázalo kontinuální auditování řízené AI, které v bankovním sektoru zkrátilo dobu uzávěrek o polovinu a zvýšilo detekci podvodů o 40 % (Oweis, 2025).

Podobný trend potvrzuje i praxe globálních auditorských firem. KPMG využívá platformu KPMG Clara, která s pomocí AI vyhodnocuje rizika v reálném čase a automatizuje analýzu tisíců dokumentů. AI tak zrychluje auditní proces, zvyšuje přesnost a posiluje transparentnost – včetně pokročilé detekce podvodů a testování integrity dat (KPMG, 2024; Benettayeb Ibrahim, 2025).

AI zároveň přináší zásadní posun v prediktivní analytice. Například Saudi Aramco zaznamenala díky AI zvýšení přesnosti finančních prognóz o 25 %, což posílilo její schopnost reagovat na tržní výkyvy (Oweis, 2025). Technologie OCR (optické rozpoznávání znaků) řízená umělou inteligencí umožnila automatické filtrování a zpracování finančních dokumentů – společnost tak snížila chybovost při ručním zadávání dat a zrychlila zpracování faktur o 35 % (Oweis, 2025; Alharbi & Salem, 2023). V případě Novartisu (Španělsko) pomohlo strojové učení během pandemie optimalizovat cash flow, což firmě zajistilo lepší vyjednávací pozici vůči bankám a stabilní likviditu (FP&A Trends Group).

Transformační dopady AI jsou zřetelné i v oblasti energetického řízení a provozních procesů. Aplikace spadající pod koncept AI for Green prokazatelně zvyšují účinnost systémů a vedou k významným finančním úsporám. Jedním z nejznámějších příkladů je Google, kde algoritmy DeepMind AI snížily spotřebu energie na chlazení datových center o 40 %. Tato úspora má zásadní finanční i environmentální dopad, protože datová centra patří mezi největší průmyslové spotřebitele energie. AI také napomáhá efektivnějšímu řízení obnovitelných zdrojů – umělé neuronové sítě zvyšují přesnost predikcí výroby a spotřeby elektřiny z větru a slunce, čímž zlepšují stabilitu a spolehlivost přenosových soustav (Shahverdi et al., 2025).

Další příklady potvrzují posun k tzv. prediktivní údržbě. Siemens využívá kombinaci AI, IoT a digitálních dvojčat k monitorování provozních dat, jako jsou vibrace nebo teplota zařízení. Algoritmy AI dokážou předvídat poruchy, plánovat výměny komponent a tím snižovat prostoje i materiálové ztráty. Současně Siemens využívá AI k optimalizaci spotřeby energie a hodnocení environmentální výkonnosti dodavatelů v rámci svého cíle uhlíkové neutrality do roku 2030 (Bwalya, 2025).

Transformační efekty se projevují také v oblasti dodavatelských řetězců. Firmy jako Amazon, Walmart nebo DHL využívají AI pro predikci poptávky, plánování zásob a trasování logistických toků s ohledem na dopravu, počasí či ceny paliv. Tyto modely umožňují včasnou reakci na geopolitické nebo klimatické hrozby, redukci plýtvání a zvýšení spolehlivosti dodávek (Belhadi et al., 2024).

Negativní dopady: finanční ztráty a poučení z implementace AI

Přestože pozitivní příklady ukazují vysoký potenciál umělé inteligence, dostupná data ze studií i z regulatorní praxe potvrzují, že špatně řízené projekty mohou vést k měřitelným finančním ztrátám a poškození reputace. Průzkum Ernst & Young z dubna 2025 mezi 975 vedoucími pracovníky ve 21 zemích ukázal, že i když většina firem aktivně investuje do rozvoje AI, governance a řízení rizik s tímto tempem krok nedrží. Pouze třetina organizací uvedla, že mají zavedené kontrolní mechanismy, které by umožnily včas identifikovat a řídit rizika spojená s nasazením AI.

Nedostatky v oblasti souladu s právními předpisy, kvality dat nebo etického používání modelů se již promítly do konkrétních finančních dopadů. Jedním z nejznámějších případů je rozhodnutí italského úřadu pro ochranu osobních údajů, který uložil společnosti OpenAI pokutu 15 milionů eur za porušení GDPR v souvislosti s provozem ChatGPT. Regulátor shledal, že při trénování modelu byly zpracovávány osobní údaje bez dostatečného právního základu a bez transparentního informování uživatelů. Tento případ se stal precedentem pro celý evropský trh – ukázal, že nedostatečná transparentnost, chybějící dokumentace procesů AI a slabá interní governance mohou mít okamžité finanční dopady. Pokuta představovala nejen přímé cash outflow, ale i značné reputační riziko v období, kdy důvěra v AI řešení hraje klíčovou roli při jejich širší adopci.

Ještě konkrétnější důsledky měla implementace umělé inteligence v oblasti hodnocení rizika a kreditního skórování. Americká společnost SafeRent Solutions, která vyvíjí AI nástroje pro screening nájemníků, čelila žalobě kvůli diskriminaci uchazečů a nepřímému rasovému biasu vůči černošským a hispánským žadatelům. V roce 2024 firma přistoupila na soudní vyrovnání ve výši přibližně 2,3 milionu dolarů. Kromě finanční kompenzace musela SafeRent zásadně přehodnotit samotný model AI a zavést povinnou validaci 3. stranou, která má zajistit, že algoritmy nevykazují diskriminační vzorce. Případ se stal důležitým milníkem v diskusi o etickém designu AI a zodpovědnosti vývojářů za její dopady v praxi.

Podobně závažné důsledky mělo i rozhodnutí italského regulátora proti společnosti Luka Inc., vývojáři generativního AI chatbota Replika. Firma byla v roce 2025 potrestána pokutou 5 milionů eur za porušení GDPR, konkrétně za nezajištění právního základu pro zpracování osobních údajů, nedostatečnou informovanost uživatelů a chybějící mechanismy ověřování věku při přístupu k chatbotu. Tento případ jasně ukázal, že i menší AI projekty mohou být ekonomicky ohroženy, pokud podcení compliance, ochranu dat a etickou stránku designu.

Všechny tyto případy mají společný jmenovatel – nedostatečné řízení rizik a slabou governance. Ukazují, že AI technologie není samospasitelným nástrojem, ale komplexním systémem, jehož úspěch či selhání závisí na připravenosti organizace a na tom, zda je technologie integrována s jasnými procesy, právní odpovědností a etickými zásadami. Tam, kde tyto předpoklady chybí, se i nejpokročilejší AI řešení mohou stát zdrojem finančních ztrát, regulatorních zásahů a dlouhodobého poškození důvěry.

Doporučení pro strategickou adopci AI

  1. Zajistěte, že právní základ, transparentnost a data-governance jsou součástí projektu AI od samého začátku.
  2. Vybudujte robustní governance strukturu (odpovědnosti, audit, etický panel) před masivním nasazením AI.
  3. Měřte a sledujte návratnost investice (ROI) i rizika – ne pouze efektivitu, ale i možné ztráty či pokuty.
  4. Začněte s piloty, které přinášejí měřitelné dopady a následně škálujte v rámci prověřených procesů.
  5. Zapojte nezávislou validaci algoritmů (zejména u prediktivních modelů či rozhodovacích nástrojů), abyste minimalizovali riziko diskriminace či biasu.

Použité zdroje:

  • Aakula, A., Zhang, C. & Ahmad, T. (2024). Leveraging AI and blockchain for strategic advantage in digital transformation
  • Adadi, A. & Berrada, M. (2018). Peeking inside the black-box: A survey on explainable artificial intelligence (XAI)
  • Alharbi, A. & Salem, R. (2023). AI-powered automation in accounting: A case study from Saudi Arabia.
  • Benettayeb Ibrahim (2025). The Impact of AI on Financial Reporting and External Auditing: A Case Study of KPMG.
  • Borges, A. F., Laurindo, F. J., Spínola, M. M., Gonçalves, R. F. & Mattos, C. A. (2021). The strategic use of artificial intelligence in the digital era: Systematic literature review and future research directions.
  • Brunnbauer, M. (2024). Methods and Models for the Identification and Evaluation of AI Use Cases.
  • Brynjolfsson, E. & McAfee, A. (2017). The business of artificial intelligence.
  • Davenport, T. H. & Ronanki, R. (2018). Artificial Intelligence for the Real World.
  • Dimaggio, P. J. & Powell, W. W. (1983). The Iron Cage Revisited: Institutional Isomorphism and Collective Rationality in Organizational Fields.
  • Dogancan, V. (2025). Developing a Novel Change Management Tool in Global Tanker Shipping Companies.
  • Evans, S., 2025. AI Adoption Surges Ahead of Governance: EY Responsible AI Survey Finds. AI Business. Available at: https://aibusiness.com/responsible-ai/ai-adoption-surges-ahead-of-governance-ey-responsible-ai-survey-finds
  • EY, 2025. How responsible AI can unlock your competitive edge. Available at: https://www.ey.com/en_gl/insights/ai/how-responsible-ai-can-unlock-your-competitive-edge.
  • Fecho, M. (2025). Toward the Adoption of Artificial Intelligence: Exploring the Critical Role of Trust.
  • Fecho, M. & Wahl, N. (2023). Organizational Adoption of Green Artificial Intelligence: An Institutional Perspective.
  • Fecho, M. & Zöll, A. (2023). The power of trust: Designing trustworthy machine learning systems in healthcare.
  • Fecho, M., v. Ahsen, A., Wahl, N. & Vetter, O. A. (2024). Paving the way to a green future with artificial intelligence – Exploring organizational adoption factors.
  • FP&A Trends Group (n.d.). Using AI in Predictive Planning – A Case Study on Cashflow.
  • Gürpinar, T. & Henke, M. (2025). Editorial: Distributed ledger solutions in web 4.0 and their impact on enterprises and society.
  • IFAC (International Federation of Accountants) (2024). The role of AI in modern auditing: Challenges and opportunities. Available at: https://www.ifac.org.
  • KPMG (2024). AI in financial reporting and audit: Navigating the new era. [online] Available at: http://kpmg.com/NavigatingAIinAudit.
  • Oweis, K. A. (2025). The Role of Artificial Intelligence in Developing Accounting: Automating Processes and Enhancing Financial Reporting in Saudi Arabia.
  • Pollina, E., Carlevaro, C. & Uppal, R., 2025. Italy’s data watchdog fines AI company Replika’s developer €5 million. Reuters. Available at: https://www.reuters.com/sustainability/boards-policy-regulation/italys-data-watchdog-fines-ai-company-replikas-developer-56-million-2025-05-19
  • Ransbotham, S., Khodabandeh, S., Fehling, R., LaFountain, B. & Kiron, D. (2019). Winning with AI.
  • Schwartz, R., Dodge, J., Smith, N. A. & Etzioni, O. (2020). Green AI.
  • Thiebes, S., Lins, S. & Sunyaev, A. (2020). Trustworthy artificial intelligence.
  • Yadav, S., 2024. She didn’t get an apartment because of an AI-generated score – and sued to help others avoid the same fate. The Guardian. Available at: https://www.theguardian.com/technology/2024/dec/14/saferent-ai-tenant-screening-lawsuit?

Diskuze

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *

Přejít nahoru