Red Hat a devět technologických trendů pro rok 2020
Odborníci z Red Hatu se ve svých výhledech zaměřili na klíčové technologie a očekávané události nadcházejícího roku v oblastech AI/ML a AIOps, v blockchainu, edge computingu a internetu věcí, hardwarové inovace a události v HPC a ve světě superpočítačů i na inovace v open source řešeních a bezpečnosti a přínosy serverless vývoje.
Ústup integrovaných platforem pro AI
„Očekává se ústup integrovaných platforem pro AI,“ předpověděl Daniel Riek, senior director pro AI Center of Excellence ve společnosti Red Hat. „Zákazníci se s využitím platformy Kubernetes se zákazníci dostanou k nejnovějším a nejlepším přístupům v oboru data science i platformám a procesům podporujícím AI. Standardizace bude vedená projekty jako Kubeflow – a od něj odvozeným projektem Red Hatu Open Data Hub, a Kubernetes se tak stane základem této AI platformy. To způsobí, že pro zákazníky bude náročnější vybrat z existujících nabídek, které jsou postaveny na stejných open source nástrojích a liší se pouze uživatelským rozhraním a použitými procesy. Pozornost se tak v architektuře přesune níže k jednotlivým specializovaným komponentám.“
Sanjay Arora, senior principal software engineer v Red Hatu, dodal, že strojové učení pro malá data a objemná data se rozdělí na dvě samostatná vlákna. „Většina existujících problémů v tomto odvětví je stále na bázi malých dat. Převažujícími překážkami jsou dostupnost vyčištěných dat, definování problémů a modelů s proveditelnými řešeními, nasazování modelů do produkčního prostředí a sledování výkonnosti modelů – to vše při současném dodržování předpisů, podnikových pravidel a bez nutnosti účasti více různých týmů při nasazování modelu. Pro většinu organizací bude stále výrazným problémem verzování dat a modelů.“
Arora připomněl, že úvodní modely pro hluboké učení vyžadovaly velké objemy dat, aby bylo možné natrénovat a odladit otevřené a veřejné modely. „Pokud se pohybujeme ve výrazně menším měřítku, jsou datové sady pro obrazové i jazykové úkoly realistické a jsou k dispozici v různých knihovnách (např. fasti.ai a spacy). To znamená více datových sad pro analýzu, avšak problémem se stává časová náročnost a interpretace výsledků.“ Arora dále předpovídá, že ve většině případů se budou hojně využívat jiné techniky než hluboké učení, například lineární modely, stromové modely, clusterování, analýza časových řad a specializovanější analytické nástroje jako teorie front nebo diskrétní optimalizace. Otázky důvěry a správy budou jednoznačně klíčové pro aplikaci AI v reálném světě. „Patrně uvidíme nárůst snah o regulaci AI, stejně jako dalších technologií pro správu důvěry modelů,“ uvedl Arora a dodal, že trh zaplaví specializovaný hardware, určený pro řešení potřeb v oblasti efektivity napájení a výkonu, obzvláště pak pro využití při inferenci.
Více pozornosti získají oblasti AI Ops/AI Dev (Sec) Ops. „AI se začíná prosazovat ve správě IT systémů a Dev (Sec) Ops a patrně přitáhne významné investice,“ řekl Daniel Riek a upozornil, že zavedení dodavatelé platforem do této oblasti výrazně investují a budou se zaměřovat na tvorbu autonomního hybridního cloudu. „Ústředním bodem autonomního hybridního cloudu se stane platforma Kubernetes, jelikož poskytuje požadované možnosti standardizace a automatizace, především ve spojení s konceptem Kubernetes Operators. Pro zákazníky to znamená vyšší spolehlivost, kvalitu a škálovatelnost v produkčním prostředí i v procesu DevOps,“ dodal Riek.
Tokenizace v blockchainu
Tokenizace, tedy reprezentace digitální i nedigitální hodnoty v podobě tokenů v blockchainu, kde je možné s nimi dále obchodovat a vyměňovat je, bude podle Axela Simona, senior software engineera v Red Hatu, i nadále povzbuzovat snahy o posílení volného trhu a získá štědré investice, jelikož se aktuálně těší velkému zájmu finančního sektoru.
Poroste i zájem o digitální měny centrálních bank. „Není překvapivé, že po oznámení plánované kryptoměny Facebooku s názvem Libra došlo k oživení zájmu o kryptoměny i ke vzniku obav ze strany různých vlád,“ řekl Simon a dodal, že „kombinace těchto dvou faktorů vhání vítr do plachet kryptoměn centrálních bank, o nichž mnoho z nich v posledních letech uvažuje. Někteří vnímají ‚fedcoiny‘ (či digitální měnu s nuceným oběhem, fiat) jako další logický krok v rámci státem krytých měn, další je chápou jako naléhavý a nezbytný krok.“
Přijde i na spolupráce soukromých, uzavřených blockchainů s těmi veřejnými, otevřenými. Simon upozorňuje, že „jestli panuje ve sféře blockchainu nějaká shoda, tak na faktu, že nepřijde jeden blockchain, jenž by vládl všem. Na základě toho lze říci, že je zde výrazný zájem zabránit vzniku uzavřených nekomunikujících skupin a zajistit, že různé blockchainy mohou interagovat, a tento zájem bude sílit s dozráváním projektů jako Polkadot nebo Cosmos.“ Simon shledal zajímavou i skutečnost, že otevřená povaha blockchainového ekosystému v otázce kódu i kultury představuje významný faktor, jenž umožňuje uvedené interoperabilní fungování, a predikuje, že toto vše připravuje cestu pro budoucnost, kdy bude existovat spousta veřejných i soukromých blockchainů a budou si spolu vyměňovat hodnotu v tzv. internetu hodnoty (Internet of Value).
Blockchainy jako kotevní vrstva
Když lidé uvažují o blockchainech, často je vnímají jako řešení určitého problému, nikoli jako možnost celkového řešení. „V budoucnosti budeme svědky nárůstu projektů využívajících blockchain jako vrstvu ve svém řešení, častokrát jako kotevní vrstvu, kterou mohou ostatní prvky využívat k budování důvěry, jak již dokládají projekty pro samosprávu vlastní identity jako například Sovrin založený na systému Hyperledger Indy. Další oblasti, v nichž se jako součást řešení patrně blockchain uplatní, jsou internet věcí a umělá inteligence,“ řekl Simon.
Po vrcholu mediální popularity blockchainu v minulém roce se pozornost přesunula ke zprostředkování skutečných řešení. „Často to znamená používat blockchain spíše jako nástroj, vrstvu v určitém řešení, než jako řešení samotné. Rovněž to znamená sledovat, jaké konkrétní silné stránky blockchainy mají, a využívat je: použití tokenů a související ekonomiky, revize kryptoměn a toho, co umožňují, z pohledu státu a přenos hodnoty v síti heterogenních účastníků,“ řekl Simon.
Technologie edge computingu, tedy zpracování dat „na okraji“, se stává stále populárnější. Podle Franka Zdarskeho, principal software engineera v Red Hatu, budou veřejní poskytovatelé pokračovat v expanzi mimo cloud. „Tři nejvýznamnější poskytovatelé veřejného cloudu (Amazon, Azure, Google) již nabízejí lokální komponenty pro služby, koncové brány, a dokonce platformy mikrokontrolérových koncových zařízení, což ve všech případech slouží k podpoře směrování zákaznických dat do PaaS řešení těchto poskytovatelů. Mnoho veřejných cloudových služeb bude zmenšeno tak, aby fungovaly na těchto koncových platformách s cílem zajistit, že rostoucí počet zákazníků zůstane závislý na těchto atraktivních, avšak uzavřených a drahých platformách,“ předpověděl Zdarsky.
Stejně tak se firemní koncová řešení edge computingu dočkají přesnější definice a hojně se budou přesouvat do produkce, upozornil Jered Floyd, člen týmu CTO v Red Hatu: „Koncová nasazení byla definována především na základě jednotlivých případů použití, spíše než s využitím konzistentní technické architektury. To omezilo rozšíření edge computingu, jelikož každá implementace musí řešit problémy distribuovaného výpočtu podle sebe. Dodavatelé podnikových platforem zaměřených na datová centra stanoví malý počet konzistentních technických architektur pro edge computing a dodají platformy a vývojářské nástroje, které urychlí cestu k zisku při zavádění nových služeb edge computingu a zpřístupní jim širší ekosystém inovativních služeb, při současném zachování kontroly nad firemní infrastrukturou a procesy.“
5G pro inovace
Na skutečnost, že zprovozňování sítí 5G ještě více podpoří inovaci koncových zařízení pro telekomunikace a firmy, upozornil Zdarsky: „Architektury sítí 5G vytvářejí aplikační příležitosti i výzvy týkající se infrastruktury. Nižší latence, vyšší šířka pásma, vyšší hustota zařízení a zvýšená spolehlivost společně vytvářejí poptávku po vícevrstvých distribuovaných aplikačních architekturách – například intenzivní datová analýza na koncovém zařízení, zasílající anomální data do připojené cloudové služby k dalšímu zpracování, nebo autonomní činnost koordinovaná zařízením a kontejnerizovanými aplikačními komponentami v připojené základové stanici,“ a dodal, že současně „nové (a rychle se rozrůstající) možnosti síťových aplikací 5G vyžadují vyšší flexibilitu a pružnost mobilních operátorů, což vede k přechodu od virtuálních síťových funkcí (VNF) ke kontejnerovým síťovým funkcím (CNF), s cílem nabízet nové služby s možností snadného nasazení.“
Podle Zdarskeho se poskytovatelé telekomunikačních služeb rozdělí na základě strategií zavádění mobilního edge computingu: „Jedna skupina poskytovatelů telekomunikačních služeb naváže partnerství s jedním ze tří zmíněných gigantů, aby ve svém mobilním systému edge computingu co nejrychleji využívala technologické možnosti a služby daného poskytovatele veřejného cloudu. Cenou za toto rozhodnutí bude ze strany poskytovatele telekomunikačních služeb v zásadě odevzdání klíče k cenným lokalizačním aktivům danému poskytovateli cloudu a omezení prostoru pro poskytovatele telekomunikačních služeb v hodnotovém řetězci a v kontaktu se zákazníkem. Další skupina si bude chtít udržet kontrolu nad svými aktivy a získat přístup k širšímu ekosystému služeb a jejich vývojářům, s cílem vyvinout vlastní platformu pro mobilní edge computing. To však vyžaduje, aby daní poskytovatelé spojili a dohodli se na způsobu spolupráce mezi svými mobilními platformami pro edge computing, aby bylo možné maximalizovat počet zákazníků pro vývojáře inovativních a atraktivních služeb edge computingu.“
Vyšší konzistence aplikační architektury IoT
IoT aplikace pro podnikové nasazení se budou více zaměřovat na jednotlivé komponenty, uvedl Jered Floyd: „Navzdory standardizaci protokolu pro komunikaci s komponentami IoT, snímači a aktuátory, stále existuje málo standardizace na úrovni aplikační architektury. Používají se běžné vývojářské nástroje, ale architektura jednotlivých případů implementace IoT zůstává i dnes překvapivě unikátní. Na základě standardizace open source komponent se v roce 2020 objeví vyšší konzistence aplikační architektury IoT, od cloud přes koncové brány až po zařízení.“
Internet věcí na kolech
Nejvyšší nárůst využívání IoT podle Floyda zaznamená automobilový průmysl. „Dodavatelé automobilů zažívají rapidní zrychlování opožděné digitální transformace a uvědomují si, že hlavní přidaná hodnota, kterou mohou nabídnout, spočívá v informační infrastruktuře spojující automobil a cloud, nikoli pouze ve výrobě motorů a dalších mechanických součástí. Namísto nasazování tuctů nezávislých subsytémů řízených mikrokontrolérem konverguje tato funkcionalita k jednomu vysoce výkonnému vestavěnému systému, trvale připojenému do cloudu. Tento „internet věcí na kolech“ již existuje v nejvyšší vrstvě trhu, ale v roce 2020 se rozšíří hlouběji a způsobí nejvyšší míru šíření IoT a s nejvyšším objemem dat.“
Floyd se dále domnívá, že podnikový (nebo průmyslový) IoT bude jasněji vnímán jednoduše jako jednoduchý případ užití edge computingu. „Nakládání s koncovými zařízeními jako nezávislými jednotkami bude z pohledu bezpečnosti a údržby stále méně udržitelné, jelikož i nejmenší zařízení je nyní schopno provozovat plnohodnotný operační systém, jako je Linux. Tyto miliardy zařízení IoT představují doslova masivní distribuovaný počítač a rychle se přizpůsobí komplexním koncovým architekturám od dodavatelů cloudových služeb nebo podnikových softwarových řešení. Rozpor mezi přístupem spravované služby a vlastní platformy bude bod největšího střetu v oblasti IoT a edge computingu v následujících třech letech.“
Hardwarové inovace
Jelikož Dennardovo škálování se blíží ke konci, již nebude možné řešit výpočetní problémy pouhým zvyšováním taktovací frekvence a paralelismu, upozornil Hugh Brock, research director ve společnosti Red Hat: „V roce 2020 dojde k výraznému nárůstu zájmu o heterogenní hardware, rekonfigurovatelná hardwarová programovatelná hradlová pole (FPGA), akcelerátory a vlastní zákaznické integrované obvody (ASIC). Začne se objevovat nový model programování a nasazení, jenž přijímá fakt, že výpočet zdroje budou heterogenní a hardware, podobně jako dnes software, bude možné upravovat a měnit. Open source nástroje a procesy budou získávat na významu, neboť tyto nástroje se rozvíjejí, zatímco proprietární řešení – podobně jako proprietární kompilátory v 90. letech 20. století – za inovacemi zaostávají.“ Podle Brocka jsme na prahu výrazného posunu hranice mezi softwarem a hardwarem a open source bude hrát v proměnách hardwaru mnohem větší roli než v minulých letech.
Třesk na trhu HPC
Ohromný růst v oblasti HPC podle Floyda zaznamená platforma Arm, přičemž ani RISC-V nebude zaostávat: „Standardizace platformy Arm prostřednictvím organizací jako Linaro konečně zajistila, že ‚navrhováníí serverů Arm je nuda'. Opakovatelné a podporovatelné činnosti spolu s efektivitou a flexibilitou výsledných platforem tak způsobí nebývalý vzestup platformy Arm na trhu HPC. Příslib architektury RISC-V bez problematických vazeb podpoří rychlý zájem o tuto platformu, která půjde ve šlépějích platformy Arm – patrně nikoli hned v roce 2020, ale brzy poté.“
Růst vlivu open source softwarových projektů
Podle Leslie Hawthornové, programové manažerky technického programu v Red Hatu, lze očekávat nárůst a rozšiřování vlivu softwarových projektů typu open source: „Jen na službě GitHub je nyní 2,4 milionu projektů, které mají open source softwarovou licenci. To představuje velký počet nových myšlenek, které jsou přiváděny na svět způsobem, jenž oproti proprietárním alternativám usnadňuje jejich nalezení a spolupráci při jejich dalším rozvoji,“ upozornila Hawthornová.
Poroste i diverzita v oblasti open source projektů, na což upozorňuje Steve Watt, hlavní architekt pro nové technologie v Red Hatu: „Nové nápady přicházejí z netradičních míst. Například v roce 2019 zaznamenaly největší nárůst celkového počtu projektů typu open source vytvořených ve službě GitHub země jako Nigérie, Írán a Keňa. Hongkong, Singapur a Japonsko pak dosáhly největšího nárůstu počtu přispěvatelů do open source softwaru. Očekáváme, že se v blízké budoucnosti objeví více společností financovaných rizikovým kapitálem zaměřených na open source (nebo novějších společností vstupujících na trh), které budou hledat právní strategie, jak řešit nekontrolovatelné užívání open source projektů provozovateli cloudu.“
Watt dále předpovídá, že bude zvyšovat mladých společností vyvíjejících open source projekty, které budou používat agresivní strategie na ochranu duševního vlastnictví, aby posílily svoji pozici jako vlastníků softwaru, který ve skutečnosti sami vytvořili a dodává, že „v nadcházejícím roce budeme patrně svědky situace, kdy bude stále více vývojářů open source chránit to, co pokládají za své právo inovovat podle vlastního přesvědčení.“
Nové výzvy v bezpečnosti
Organizace začínají hledat způsoby, jak nasazovat více úloh do veřejného cloudu a více tak využívat otevřeného hybridního cloudu, potvrdil zkušenosti zákazníků Mike Bursell, hlavní bezpečnostní architekt Red Hatu: „V současnosti způsobují právní předpisy, normy a osvědčené postupy mnoha organizacím starosti se spouštěním citlivých úloh mimo vlastní prostředí. Důvodem k obavám je, že nepovolaná osoba nebo kompromitovaný server mohou získat přístup a narušit cokoliv – od konfigurace firewallu přes výplatní pásky a zdravotní údaje až po podrobnosti o kreditních kartách.“ Bursell dále upozornil, že některé úlohy jsou tak citlivé, že je nelze bezpečně provozovat ani na standardních lokálních strojích, ale vyžadují další softwarové a hardwarové regulace. Současná řešení totiž poskytují šifrování pro nečinná data (v úložišti) i přenášená data (v síti), ale nikoli pro používaná data (v průběhu jejich aktivního zpracování). Kromě toho některé úlohy používají algoritmy, které jsou samy o sobě citlivé – mmj. do této kategorie spadá mnoho aplikací pro umělou inteligenci a strojové učení, a ty je třeba také chránit. „Až donedávna existovalo jen velmi málo možností nad rámec hardwarových bezpečnostních modulů (HSM), které jsou nákladné a těžko se používají. HSM sice umožňují chránit konkrétní operace – obvykle šifrování – s vysokým stupněm zabezpečení, ale kromě zmíněné nákladnosti a obtížného používání nemohou tyto moduly rovněž nemohou ani škálovat. Pro organizace se zvyšujícím se počtem citlivých aplikací, které zpracovávají rychle rostoucí objemy citlivých dat, tedy nebyly moduly HSM odpovědí,“ konstatoval Bursell a doplnil, že v reakci na tyto úvahy přišli výrobci čipů u některých ze svých procesorů s novou funkcí s názvem TEE (Trusted Execution Enviroment, důvěryhodné spouštěcí prostředí).
Technologie skrytá za TEE nabízí možnosti ochránit úlohy před softwarem a operačním systémem zařízení, na němž úlohy běží. Nejznámějšími příklady jsou SGX od společnosti Intel a SEV od společnosti AMD. Tyto technologie nabízejí možnost spouštět citlivé aplikace na mnohem větším počtu míst napříč otevřeným hybridním cloudem. Přestože jsou obě celkem nové, IT odvětví si jich začíná všímat. S ohledem na to, že jsou tyto snahy nové a hardware s podporou TEE se zatím moc nenasazuje ani se snadno nepoužívá, vznikla nová oborová skupina s názvem Confidential Computing Consortium, která má usnadnit zapojení, diskuzi a spolupráci v této oblasti. Do skupiny se již zapojila řada firem z celé branže, včetně Red Hatu, a již existují první projekty jako Enarx (enarx.io), které mají za cíl zjednodušit nasazení aplikací do prostředí TEE.
„Citlivé aplikace nejsou ve veřejném cloudu dostatečně chráněné a používaná data jsou vystavena výraznému riziku ze strany nepovolaných osob nebo napadeného softwaru,“ řekl Bursell a dodal, že „prostředí TEE (Trusted Execution Environment) nabízí nový způsob, jak tento problém vyřešit. Celé odvětví chce zjistit, jak je nejlépe aplikace nasazovat s ještě větším využitím strategií otevřeného hybridního cloudu.“
Serverless vývoj
„Koncept serverless nabízí zjednodušenou vývojářskou zkušenost, která se stane funkcí platformy,“ řekl William Markito Oliveria, senior manager pro product management v Red Hatu, a předpovídá, že „více poskytovatelů platformy jako služby začlení rysy serverless vývoje do denních činností, které vývojáři provádějí při tvorbě nativních cloudových aplikací, a stane se z nich výchozí paradigma pro výpočety v cloudu.“
Podle Oliviery se budou firmy, které přecházejí do cloudu a chtějí přeškolit současný personál na nové technologie, dívat na serverless řešení jako na způsob, jak se vyhnout složitým konceptům a zajistit rychlejší zaučení. „Datoví vědci si serverless přístup oblíbí, protože tyto platformy mohou optimalizovat výkon a řešit složité výzvy s umístěním spouštěného kódu pomocí zjednodušeného modelu, který umožňuje uživatelům zaměřit se na diferenciaci firmy nebo modelování, či abstrahování infrastruktury,“ předpověděl Oliviera.