Nasazení AI vyžaduje týmové úsilí
Jak může otevřená platforma hybridního cloudu sloužit jako základ pro vybudování a provoz prostředí AI a integraci všech zúčastněných stran?
Jak se generativní umělá inteligence vyvíjí, zaměřuje se na toto téma stále více společností. Koneckonců technologie AI a ML slibují řadu výhod, jako zrychlení procesů, vyšší kvalitu produktů a služeb i snížení pracovní zátěže zaměstnanců. Úspěšná implementace strategie pro AI však vyžaduje několik procesních kroků, od vývoje strategie až po monitorování a správu modelů za účelem měření výkonnosti a reakce na případné odchylky dat v produkčním prostředí, přičemž tyto úkoly často zahrnují různá oddělení a zainteresované strany organizace.
V typickém projektu AI stanovuje cíle konkrétní oddělení, datoví inženýři a vědci vyhledávají a připravují použitá data a inženýři ML vyvíjejí modely, které slouží aplikacím vytvářeným vývojáři – to vše v prostředí řízeném oddělením IT. Otázkou nyní je, jaký je ideální technologický základ pro tyto různorodé úkoly a výzvy, tedy společný základ pro všechny strany zapojené do tohoto procesu. A zde se do popředí zájmu firem stále více dostávají otevřené platformy hybridního cloudu založené na Kubernetes, které nabízejí konzistentní infrastrukturu pro vývoj modelů AI, jejich trénování i začlenění do aplikací.
Aby bylo možné pro všechny strany zapojené do procesu spolehlivě zorganizovat cestu od experimentu až k produktivnímu provozu – a umožnit jim konzistentně spolupracovat – měly by klíčové vlastnosti takové platformy zahrnovat:
- Vývoj modelu s interaktivním, kolaborativním uživatelským rozhraním pro datovou vědu i jeho trénování, optimalizaci a nasazení.
- Nasazení modelu s jeho směrováním do produkčních prostředí.
- Monitorování modelu pomocí centralizovaného monitoringu k ověření jeho výkonnosti a přesnosti.
Tento platformový přístup nabízí mnoho výhod, mezi které především patří:
- Vysoká míra flexibility díky modelu hybridního cloudu: Podniky mohou flexibilně nasadit kontejnerizované modely inteligentních aplikací v místním datovém centru, v cloudu nebo na okraji sítě.
- Snadná správa a konfigurace s vysokou škálovatelností: Provoz IT může poskytnout centrální infrastrukturu pro datové inženýry a vědce a zbavit je tak zátěže spojené s údržbou a správou prostředí.
- Podpora spolupráce: Společná platforma spojuje data, IT a týmy. Eliminuje také narušení procesů mezi vývojáři, datovými inženýry a vědci a týmy DevOps. Navíc poskytuje integrovanou podporu pro spolupráci mezi týmy ML a vývojáři aplikací.
- Open source inovace: Organizace získají přístup k inovacím open source nástrojů pro AI/ML.
Celkově lze říci, že otevřená platforma hybridního cloudu poskytuje různým týmům základnu pro jejich iniciativy v oblasti AI. Taková infrastruktura podporuje vývoj, trénování, nasazení, monitorování a řízení životního cyklu modelů i aplikací AI/ML, a to od experimentování a ověřování konceptů až po produkci. Přidává AI do stávající struktury DevOps organizace rozšiřujícím a integrovaným způsobem a nikoli jako samostatné řešení, které musíte sami integrovat.
Autor: Andreas Bergqvist, expert na AI ve společnosti Red Hat