\"/
\"/ \"/    

iGrid2005

Petr Holub, Eva Hladká, Luděk Matyska, CESNET, FI MU, PřF MU, ÚVT MU
Ročník XVI - číslo 3, únor 2006
Citace: P. Holub, E. Hladká, L. Matyska. iGrid2005. Zpravodaj ÚVT MU. ISSN 1212-0901, 2006, roč. XVI, č. 3, s. 12-16.
verze pro tisk: PDF
Tematické zařazení: Superpočítače a gridy
 předchozí článek | následující článek 

Jen velmi málo aplikací je schopno využít potenciál, který nabízí optické sítě svou vysokou přenosovou rychlostí a velmi nízkou latencí. Zpravidla je jejich kapacita využita pouze pro přenos agregovaných proudů dat bez specifických požadavků na rychlost nebo kapacitu sítě. Ukázat skutečné možnosti vysokorychlostních optických sítí bylo cílem workshopu iGrid2005, který se konal v září 2005 v San Diegu v Kalifornii (USA) a kterého jsme se i my aktivně účastnili.

Setkání iGrid2005 spolupořádaly tři organizace: Electronic Visualization Laboratory (EVL) z Univerzity Illinois v Chicagu, Cal-(IT)2 z University of Califonia San Diego a GLIF, Global Lambda Integrated Facility. Druhá z jmenovaných organizací byla současně hostitelem celé akce. Všechny tři pořádající instituce patří mezi nejvýznamnější "hráče" v oblasti optických sítí: EVL operuje StarLight, mezinárodní spojovací bod optických sítí, a je současně vedoucím pracovištěm v oblasti vizualizace velkých objemů dat, pro něž je nezbytná i odpovídající vysokokapacitní síťová infrastruktura. Cal-(IT)2 je vedoucí organizací projektu OptiPuter, studujícího zcela nové způsoby uživateli řízeného přepínání optických tras. GLIF je pak sdružení hlavních vlastníků a operátorů akademických optických tras, které má přirozený zájem na hledání a podpoře nových aplikací vysokorychlostních sítí.

Workshopy iGrid mají již určitou tradici - první byl pořádán jako součást konference SuperComputing'98 v Orlandu na Floridě, další pak v roce 2000 v Yokohamě v Japonsku a v roce 2002 v Amsterodamu v Holandsku. Série worshopu iGrid současně dokumentuje prorůstání Gridů - původně chápaných velmi úzce jako distribuované výpočetní systémy - a vysokorychlostních sítí. Stále více se dnes hovoří o integrovaném heterogenním prostředí, které je tvořeno sítěmi a jimi propojenými nejrůznějšími zdroji (výpočetního výkonu, dat, znalostí, ale i přístroji a lidmi), a které má charakter prostředí podporujícího spolupráci geograficky vzdálených týmů nad společnými problémy.

Workshop iGrid2005 [1] tvořilo 45 demonstrací, několik zvaných přednášek a několik panelů. Spolupráce se projevila i zde - prakticky všechny demonstrace byly představovány týmy zastupujícími několik institucí. Nejvíce demonstrací bylo samozřejmě koordinováno partnery z USA, celkem se jednalo o 28 takto koordinovaných demonstrací. Po třech demonstracích koordinovaly týmy z Kanady, Japonska, Polska, dvě demonstrace pak tým z Holandska a jednu "vlastní" demonstraci pak měly týmy z České republiky, Číny, Koreje, Spojeného království a z Taiwanu. Českou republiku zastupoval tým tvořený pracovníky a doktorskými studenty Masarykovy univerzity (z Fakulty informatiky a Ústavu výpočetní techniky) a sdružení CESNET (jeden ze zakládajících členů GLIFu). Ve skutečnosti se tento tým podílel na celkem třech demonstracích - kromě výše zmíněné "vlastní" demonstrace to byly akce vedené polským a americkým týmem.

1  "Naše" demonstrace

Jak bylo řečeno v úvodu, hlavním cílem workshopu byla demonstrace co nejpokročilejších aplikací optických sítí. Převážná většina demonstrací se věnovala přenosu obrazových dat, které potřebují vysokou přenosovou kapacitu a při interaktivní práci i velmi nízkou latenci. Do této kategorie patřila i demonstrace CZ101 s názvem HD Multipoint Conference, jejímž prostřednictvím jsme představili výsledky společné práce MU, CESNETu a spolupracující Louisiana State University (LSU) v Baton Rouge. High-definition (HD) video poskytuje při rozlišení 1920 × 1080 bodů velmi kvalitní obraz, schopný zachytit i velmi malé detaily. Použití HD videa pro videokonference však naráží na problém jeho zpracování: pokud použijeme příliš vysokou kompresi, musíme se smířit se ztrátami v kvalitě obrazu a tím de facto přijdeme o přednosti vysokého rozlišení. Velmi kvalitního obrazu je možno dosáhnout při použití HDV komprese, která vyžaduje přenosové pásmo 25 Mbps. Zásadní nevýhodou HDV komprese je však velmi vysoká latence při vlastním kódování videa, která může dosáhnout více jak 1,5 sekundy. To je samozřejmě zcela nepoužitelné pro skutečnou videokonferenci, pro kterou potřebujeme dosáhnout zpoždění nejlépe v řádu 100 ms. Variantou je použití nekomprimovaného videa dle standardu HD-SDI, kde je ovšem šířka datového toku zhruba 1,5 Gbps. Dvoubodová videokonference, kdy je třeba každým směrem přenášet těchto 1,5 Gbps, byla poprvé realizována na podzim 2001 mezi Tokiem a prefekturou Chiba v Japonsku a přibližně o měsíc později jiným nezávislým týmem mezi Seattlem a Denverem v USA. Rozšíření na tři a více konferujících míst bránil jednak nedostatek přenosové kapacity, jednak chybějící nástroje na co nejrychlejší duplikaci datových proudů při této přenosové rychlosti.

Aktivní prvky, které používáme pro vícebodový přenos dat při běžných videokonferencích [6] jsme adaptovali tak, aby byly schopné s minimální latencí duplikovat datové proudy do přenosové rychlosti 2 Gbps. Pro tento účel používáme servery vybavené dvěma procesory AMD64 Opteron, ve kterých je 10 GE karta firmy Chelsio. Jeden server je schopen beze ztrát duplikovat jeden proud, tj. z jednoho vstupního proudu vytvoří dva výstupní. Tyto aktivní prvky tvořily základ distribuční sítě vlastní demonstrace.

Snímání dat a generování datového proudu o kapacitě 1,5 Gbps, stejně jako jeho zpracování na druhém konci přenosového kanálu rovněž vyžadovalo velmi výkonné výpočetní systémy. Pro snímání HD videa jsme použili kameru Sony HVR-Z1E, která byla přímo připojena k převodníku AJA HD10A, který převáděl analogový signál kamery na HD-SDI proud. Ten byl dále zpracován kartou DVS Centaurus, zabalen do UDP/IP paketů a poslán přes 10 GE Chelsio kartu do vysokorychlostní sítě. Obsluhující počítač byl opět server se dvěma procesory AMD64 Opteron, konkrétně jsme použili typ 250 s frekvencí 2,4 GHz. Na druhé straně přenosové trasy byl analogický počítač, avšak bez DVS karty a místo toho vybavený grafickou kartou schopnou zobrazit HD rozlišení. Při laboratorním uspořádání jsme naměřili zpoždění 175 ms - je to čas od okamžiku zachycení přes zpracování a přenos až po zobrazení na HD LCD obrazovce. Podrobnější technické informace je možno nalézt na webové stránce https://sitola.fi.muni.cz/igrid/ a stručný popis pak v článku Videokonference s vysokou kvalitou v tomto čísle Zpravodaje.

Samotná demonstrace pak propojila tři místa: Brno (ČR), LSU (Luisiana) a San Diego (Kalifornie). Všechna data procházela StarLightem v Chicagu, kde jsme měli k dispozici tři aktivní reflektory (duplikátory) popsané výše. Všechna místa byla propojena optickými trasami s kapacitou 10Gbps. Optické trasy poskytl GLIF, konkrétně CzechLight (Brno-Praha-Amsterodam), NetherLight (Amsterodam-Chicago), CAVEWave (Chicago-San Diego) a National Lambda Rail (Chicago-Baton Rouge). Každé místo bylo vybaveno vlastní HD kamerou, signál byl z každého místa přenášen do Chicaga, kde byl zdvojen a poslán na zbývající dvě místa. Takto jsme vytvořili plnohodnotné videokonferenční prostředí.

Pro vlastní demonstraci byly k dispozici třikrát 2 hodiny, vždy ráno kalifornského času. Čas jsme vyplnili přednáškami, a to jak na místě tak i z obou připojených míst - z MU přednášel například prof. Gruska a prof. Slovák. HD kamera byla schopná beze ztráty detailu sejmout celé plátno se slidy a přenést je na vzdálená místa v plné kvalitě. Fotografie zobrazování HD videa na zapůjčených 63'' plazmových obrazovkách v San Diegu je na obr. 1.

 
Ukázka u demonstrace CZ101
 
Obrázek 1: Ukázka u demonstrace CZ101 - HD Multipoint Conference.
 

Ne všechno však proběhlo podle plánu. Zaměřili jsme se primárně na zpracování a přenos videodat a podcenili jsme kvalitu přenášeného zvuku. Výsledkem byl vynikající obraz a spíše nekvalitní zvuk - použili jsme pouze zapůjčené vybavení, které jsme ani předem nijak nespecifikovali. Daleko větší problém ale způsobily dva hurikány, které přešly přes Lousianu a Texas (jeden z nich byl hurikán Katrin, který zničil New Orleans). Jedna karta DVS Centaurus, kterou jsme nechali poslat českým dodavatelem na LSU byla zadržena při celním odbavování: původně měla jít přes New Orleans, po jeho zatopení byla přesunuta do Houstonu, ten však byl ohrožen druhým hurikánem a i jeho celnice byla zavřena. Bez této karty však nebylo možné generovat HD nekomprimovaný proud z LSU. Realizovali jsme proto náhradní řešení, kdy LSU posílala pouze HDV komprimovaný proud. Díky tomuto řešení jsme mohli přímo na místě demonstrovat zpoždění, způsobené zpracováním (kompresí a dekompresí) HDV proudů. To dosahovalo hodnoty 2 sekund a bylo v ostrém kontrastu s méně jak půl sekundovou latencí z ČR (přestože se jednalo o mnohem větší vzdálenost). Pozorovaná téměř 500 ms latence přenosu nekomprimovaného HD videa mezi Brnem a San Diegem se skládala ze 175 ms latence zpracování videosignálu a 102 ms latence přenosové trasy. Zbývajících více jak 200 ms pak měla na svědomí vlastní duplikace dat v StarLightu.

Druhá demonstrace, na které jsme se podíleli, nesla název Interactive Remote Visualization across the LONI and the National LambdaRail a byla organizována našimi partnery na LSU. Cílem zde bylo předvést interaktivní vizualizaci, která je zobrazována na více místech současně, a všichni, kteří ji sledují, s ní také mohou interagovat (např. měnit úhel pohledu, přiblížení, ale i některé parametry modelu, který představuje). Propojena byla opět stejná tři místa jako v předchozím případě, každé však mělo navíc k dispozici dvě speciální zařízení pro interakci, nazývané tangible. Každé z těchto zařízení bylo napojeno na jeden parametr vizualizace a pohybem se zařízením bylo možno tento parametr měnit. Tato demonstrace měla dva cíle. Jedním bylo využití výpočetních prostředků státu Louisiana propojených optickou sítí (Louisiana Optical Network Initiative, LONI1) a vytvoření superpočítače vybaveného velkou pamětí. Druhým cílem byl pak přenos vizualizace jako HD video proudu, tj. nikoliv speciálním protokolem. Podařilo se vytvořit počítač s více jak 320 GB paměti, jehož jednotlivé uzly zpracovávaly a posílaly data rychleji, než by bylo možné dosáhnout použitím i jediného superpočítače s lokálními disky. Přenosová infrastruktura byla identická předchozímu případu. Nedodaná karta DVS Centaurus způsobila, že místo přímo generovaného HD video proudu musela být vizualizace zobrazena lokálně na LCD panelu v Luisianě, tam sejmuta HD kamerou a přenášena dále jako HDV komprimovaný proud. Přes toto omezení se podařilo demonstrovat použitelnost celého přístupu. V plné podobě se pak společně podařilo tento systém demonstrovat o dva měsíce později na konferenci SuperComputing'05 v Seattlu (stát Washington), kam se podařilo přivést dva plné HD video proudy (vizualizace z LSU a živý obraz z MU v Brně) a jeden živý HDV proud z LSU.

Cílem poslední demonstrace, které jsme se zúčastnili - Large-Scale Simulation and Visualization on the Grid with the GridLab Toolkit and Applications - bylo předvedení výsledků spolupráce v rámci EU projektu GridLab [7].

2  Kontext ostatních demonstrací

Během workshopu iGrid proběhla celá řada dalších videokonferenčních demonstrací, ovšem pouze demonstrace ResearchChannel byla rovněž věnována vícebodovému HD video přenosu, v ostatních případech šlo pouze o dvoubodové spojení. Za zmínku stojí demonstrace japonské skupiny Digital Media and Content z Keio University. Ta používala pro přenos komprimovaného videa v rozlišení 4K (4096 × 3112) hardwarový kodek JPEG2000. V této kvalitě byly přenášeny jak počítačové animace tak i živé 4K video z experimentální digitální kamery firmy Olympus. V San Diegu byl pro zobrazení použit prototyp 4K projektoru SONY. Jedna z prezentací byla věnována Gutenbergově bibli, kde byly možnosti 4K projekce demonstrovány na detailech iluminací.

Pravděpodobně nejsilnější skupinu demonstrací představovaly vizualizace. Velmi zajímavé byly demonstrace využívající 100 Megapixelovou zobrazovací plochu, tvořenou celkem 55 běžnými LCD panely (5 × 11). Tato plocha má využití např. při detailním studiu satelitních snímků a obrazů z geografických informačních systémů. Plné video na této ploše zatím není možné - bez komprese by vyžadovalo datový tok cca 1 Tbps - i zobrazení "pouze" statických obrazů v plném rozlišení s možností pohybu v obraze a interaktivního zoomu generuje datové toky řádu gigabitů za sekundu. K vidění byly i různé druhy stereoskopických a holografických projekcí, či snímání trojrozměrných objektů pomocí CT skenování v reálném čase.

Související skupinou demonstrací byla vzdálená manipulace s unikátními přístroji (mikroskopy, observatořemi, rentgeny atd.). V rámci projektu NEPTUNE, který se zabývá výzkumem mikroorganismů žijících ve velkých hloubkách na vulkanicky a geotermálně aktivních oblastech oceánského dna, byly předvedeny HD přenosy videa a současná interakce s přístroji umístěnými na mořském dně.

Speciální skupina demonstrací byla věnována přímé manipulaci lambda služeb (pro úvod do této problematiky viz např. [2][3]). Cílem bylo ukázat nástroje pro sestavení a dynamickou (re)konfiguraci dle požadavků aplikací a uživatelů. Jedna z demonstrací například využívala protokolu GMPLS [4][5] pro dynamickou konfiguraci lambda sítě za účelem sběru velkého množství astronomických dat z radioteleskopů rozmístěných v USA, Japonsku, Švédsku, Spojeném království a v Holandsku. Snímaných dat se následně využívá k přesné analýze pohybu Země ve vesmíru.

3  Shrnutí

Během workshopu iGrid2005 bylo na relativně velmi malém prostoru shromážděno velké množství unikátní techniky. Workshop byl proto záměrně zakončen speciální sekcí Lessons Learned, kde se otevřeně diskutovaly úspěchy, ale i problémy, které se během realizace všech demonstrací vyskytly. Značné množství problémů bylo způsobeno chybějící technikou - hurikány a americkou celnicí jsme zdaleka nebyli postiženi pouze my. Organizátoři akce se snažili v maximální možné míře pomoci a zapůjčili neuvěřitelné množství techniky, aby tyto problémy pomohli překonat. Workshop rovněž prokázal, jak nezbytný je další výzkum v oblasti konfigurace a správy lambda služeb - během workshopu byly všechny okruhy sestavovány a rušeny ručně, což představovalo prakticky kontinuální práci týmu více jak 5 lidí po celou dobu. Navíc v případě problémů manuální zásah v Evropě či Asii zpravidla znamenal probuzení lokálně odpovědné osoby.

Workshop iGrid2005 ukázal, kudy se ubírají špičkové aplikace využívající v maximální možné míře možností optických sítí a gridových systémů nad nimi budovaných. Není překvapením, že převážná většina aplikací pracuje s obrazovou informací ve velmi vysokém rozlišení a využívá jak vysoké kapacity optických sítí tak i velmi nízké latence k podpoře virtuálních pracovních skupin, jejichž členové jsou distribuováni ve více lokalitách po světě. Z jistého úhlu pohledu můžeme demonstrace na iGridu vidět jako části (jednotlivé stavební kameny) velmi pokročilého prostředí pro spolupráci. Zde se otevírá možnost pro další zapojení týmů z ČR, jejích univerzit a akademických ústavů - špičková věda spočívající ve spolupráci několika vědeckých týmů nutně generuje nové nároky na optické sítě a Gridy. Taková vědecká pracoviště nepochybně v ČR jsou, chybí "jen" jejich lepší propojení se síťovou a gridovou komunitou. Pokud se toto podaří, bude zastoupení České republiky na příštím iGridu mnohem rozmanitější.

Literatura

[1] iGrid2005, http://www.igrid2005.org
... zpět do textu
[2] P. Holub. "Lambda služby." Zpravodaj ÚVT MU. ISSN 1212-0901, 2004, roč. 15, č. 2, s. 8-13.
... zpět do textu
[3] P. Holub, J. Radil. "Akademické lambda sítě u nás a ve světě." Zpravodaj ÚVT MU. ISSN 1212-0901, 2005, roč. 15, č. 3, s. 6-12.
... zpět do textu
[4] GMPLS, http://www.polarisnetworks.com/gmpls/, http://www.polarisnetworks.com/gmpls/gmpls_drafts.html
... zpět do textu
[5] A. Banerjee, J. Drake, J. P. Lang, B. Turner, K. Kompella, Y. Rekhter, "Generalized Multiprotocol Label Switching: An Overview of Routing and Management Enhancements", IEEE Comm. Mag., January 2001, http://www.calient.net/files/GMPLS.pdf
... zpět do textu
[6] E. Hladká, P. Holub. "Zrcadla v počítačové síti." Zpravodaj ÚVT MU. ISSN 1212-0901, 2002, roč. 12, č. 5, s. 7-10.
... zpět do textu
[7] GridLab - A Grid Application Toolkit and Testbed, http://www.gridlab.org/
... zpět do textu
setting
1 http://www.cct.lsu.edu/projects/loni/index.php
... zpět do textu
Zpět na začátek
ÚVT MU, poslední změna 14.11.2011