Od e-infrastruktury do e- nauki



Pobieranie 55 Kb.
Data02.05.2016
Rozmiar55 Kb.
Od e-infrastruktury do e- nauki
Jan Węglarz
Instytut Informatyki Politechniki Poznańskiej


  1. Wstęp

Warunkiem koniecznym praktycznej realizacji wizji globalnej społeczności naukowej jest powszechna dostępność odpowiedniej infrastruktury informatycznej nauki. Z tego powodu rozwój tej infrastruktury w wielu krajach jest obejmowany specjalnymi programami. W ich efekcie powstaje wielopoziomowa architektura narzędzi i metod informacyjno-komunikacyjnych (ang. Information and Communication Technology, ICT), w ramach której powstają aplikacje i usługi dla obsługi zarówno całego środowiska naukowego jak i poszczególnych dyscyplin nauki.


Poniżej omówimy budowę europejskiej infrastruktury informatycznej nauki, nazywanej też e-infrastrukturą (ang. e-infrastructure), ze szczególnym uwzględnieniem wkładu polskiego środowiska naukowego, a następnie zilustrujemy znaczenie tej infrastruktury dla rozwoju e-nauki na przykładzie wybranych dyscyplin.



  1. Infrastruktura informatyczna nauki

Budowę infrastruktury informatycznej rozpoczęto u nas 15 lat temu, realizując naukowe sieci światłowodowe w głównych ośrodkach akademickich , tzw. sieci MAN (ang. Metropolitan Area Network). Obecnie jest ich 21. W sieciach tych istnieje infrastruktura dla wytwarzania usług. Tym różni się model polski od modelu europejskiego (Rys.1), w którym sieci kampusowe dołączone są bezpośrednio do sieci krajowej (tzw. NREN: National Research and Education Network). Powstało także 5 centrów komputerów dużej mocy.





Rys.1 Modele infrastruktury informatycznej nauki

W efekcie doświadczeń polskiego środowiska naukowego w zakresie budowy sieci MAN w głównych ośrodkach akademickich oraz sieci krajowej POL-34 [1], powstał w 1999 roku projekt PIONIER, zaakceptowany do realizacji przez KBN w roku 2000. Zakres tego programu jest dobrze zdefiniowany jego pełną nazwą: „PIONIER: Polski Internet Optyczny - Zaawansowane Aplikacje, Usługi i Technologie dla Społeczeństwa Informacyjnego" [2]. Jednym z ważnych składników tego programu była budowa ogólnopolskiej światłowodowej sieci PIONIER. W 2001 roku w USA, National Science Foundation ogłosiła realizację podobnego programu o nazwie Cyberinfrastructure [3]. Równocześnie w Europie, bazując na efektach 5. Programu Ramowego i rozpoczętego w 2002 roku 6. Programu Ramowego, zdefiniowano w 2003 roku koncepcję zintegrowanej infrastruktury informatycznej dla nauki i edukacji pod nazwą e-Infrastructure [4]. która obejmowała dwie warstwy. Szerokopasmowe sieci nowej generacji tworzyły warstwę pierwszą, a rozproszone systemy dostępu do zasobów obliczeniowych, pamięci i archiwizacji oraz instrumentów badawczych tworzyły warstwę drugą. Zintegrowane w warstwie drugiej metody i narzędzia tworzą złożony system rozproszony, który nazywamy gridem. Z tego powodu terminem e-infrastruktura obejmujemy zarówno infrastrukturę sieciową jak i gridową (Rys. 2).





Rys. 2 Europejska i polska e-infrastruktura

Koncepcja e-infrastruktury, rozbudowana w ramach 6. Programu Ramowego, potwierdziła swoją użyteczność dla wielu dziedzin nauki, które bez jej wykorzystania nie miałyby szans rozwoju. Zdobyte doświadczenia pozwoliły zdefiniować, jako jeden z kierunków prac w 7. Programie Ramowym, dodanie do e-infrastruktury nowej warstwy – warstwy danych naukowych (ang. Scientific Data Layer) [5]. Warstwa ta wyłącza, z ogólnie zdefiniowanego obszaru warstwy aplikacji, funkcje wspólne dla wielu zastosowań umieszczane powyżej warstwy gridowej. Program PIONIER oraz prace polskich zespołów naukowych w projektach 5. i 6. Programu Ramowego w obszarze sieci i gridów, wniosły partnerski wkład w budowę europejskiej infrastruktury informatycznej nauki, która stanowi bazę dla europejskiej przestrzeni badawczej. W dalszej części tego rozdziału omówimy poszczególne składniki tej e-infrastruktury.



    1. 2.1. Infrastruktura sieciowa

Obecnie infrastruktura sieciowa składa się z sieci paneuropejskiej GÉANT2 i powiązanych z nią narodowych sieci naukowych, głównie optycznych. Początkiem dzisiejszej infrastruktury sieciowej w Europie była sieć GÉANT powstała w ramach 5. Programu Ramowego, jako następca sieci europejskiej TEN-155. Sieć GÉANT bazowała na szybkich kanałach komunikacyjnych w technologii SDH, wydzierżawionych od operatorów telekomunikacyjnych. Sieć rozpoczęła swoje działanie w roku 2001. W Polsce w tym czasie działała sieć POL-34 budowana według identycznych zasad, przy czym maksymalną przepustowością było 622 Mb/s. Do budowy tej sieci zastosowano tradycyjne technologie telekomunikacyjne SDH i ATM, powyżej których pracował protokół IP. Rozwój technologii światłowodowych spowodował pojawienie się bardzo wydajnych i niezawodnych technologii transmisyjnych DWDM (ang. Dense Wavelength Division Multiplexing), które wymusiły rewolucyjne przemiany w architekturze systemów komunikacyjnych. Duża przepustowość i niezawodność kanałów optycznych (tzw. lambd) nie wymagała stosowania dodatkowych protokołów zapewniających zwiększenie bezpieczeństwa i niezawodności transmisji, co umożliwiło zastosowanie w sieciach optycznych powyżej technologii DWDM, prostej metody ramkowania pakietów (np. Ethernet), dzięki czemu protokół IP „zbliżył się” do światłowodu. Doprowadziło to do bardzo znaczącego uproszczenia zarządzania i tym samym potanienia transmisji. Uzyskiwane w tej transmisji popularne szybkości kanałów optycznych to 10 Gb/s. Ponadto technologia przełączalnego Ethernetu stosowana w tych sieciach, została wzbogacona o protokół MPLS (ang. MultiProtocol Label Switching) oraz VPLS (ang. Virtual Private LAN Service), co stwarza możliwość dynamicznego tworzenia w sieci fizycznej kanałów i sieci wirtualnych o różnych, wymaganych przez użytkownika konfiguracjach. Co więcej, za pośrednictwem niedawno zdefiniowanego protokołu GMPLS (and. Generalized Multiprotocol Label Switching) możliwe jest sterowanie kanałami transmisyjnymi na różnych poziomach architektury sieci, od światłowodu do kanałów wirtualnych. Dostępność kanałów szerokopasmowych przyczyniła się znacząco do rozwoju w takich sieciach rozproszonych systemów przetwarzania danych i wykorzystywania tych kanałów w różnych eksperymentach naukowych. Opisane technologie zastosowane zostały między innymi w sieci GÉANT2, która powstała w ramach 6. Programu Ramowego w 2004 roku (Rys. 3).




Rys. 3 Sieć GÉANT2 [6]


W Polsce prace wokół następcy sieci POL-34 rozpoczęły się w roku 1999 od budowy eksperymentalnej sieci optycznej na światłowodach uzyskanych od innych operatorów [7]. Prace te kontynuowane były w ramach projektów 5. i 6. Programu Ramowego. Obejmowały one problematykę: jakości usług sieciowych i badania nowych technologii (projekty SEQUIN [8], ATRIUM [9], 6NET[10], MUPBED[11]); usługi zarządzania pasmem na żądanie, architektury systemów pomiarowych i obsługi zdarzeń w sieciach nowych generacji (ng) (projekt GN2 [12]) oraz zarządzanie sieciami ng (projekt EMANICS [13]). W projektach tych współuczestniczył zespół Poznańskiego Centrum Superkomputerowo-Sieciowego (PCSS). Równocześnie od 2001 roku rozpoczęto realizację ogólnopolskiej światłowodowej sieci PIONIER, jednej z najnowocześniejszych sieci na świecie (Rys. 4). Sieć PIONIER łącząca 21 MANów i 5 centrów Komputerów Dużej Mocy, uruchomiona w roku 2003, obejmuje 5200 km własnych linii światłowodowych, z czego 1200 km jest w trakcie budowy. Sieć bazuje na takich technologiach, jak: DWDM (do 32 lambd 10 Gb/s), MPLS, VPLS, IPv6 i oferuje usługi BoD (ang. Bandwidth on Demand) oraz wymaganą QoS (ang. Quality of Service).



Rys. 4 Sieć PIONIER

Z siecią PIONIER zintegrowane są także zaawansowane usługi transmisji strumieniowej. Realizujący te usługi system SDT [14,15] stanowi podstawę do budowy zaawansowanych systemów użytkowych, jak np. Platforma iTVP [16].

Platformę iTVP (interaktywna telewizja bazująca na protokole IP) tworzy kilka systemów współpracujących ze sobą i realizujących zadania w rozdzielnych obszarach funkcjonalnych (Rys. 5). Są to m.in.:



  • Główne Centrum Danych (GCD)

  • System Dostarczania Treści (SDT)

  • System Przyznawania Licencji (SPL)

  • Portal Interaktywny.




Rys. 5 Architektura Platformy iTVP

Zasadniczy składnik platformy – System Dostarczania Treści - jest systemem platformy iTVP odpowiedzialnym za dystrybucję materiałów audiowizualnych pochodzących z systemów GCD oraz ich dostarczenie do odbiorców. Realizuje usługi transmisji treści w trybach: „na żywo”, „na żywo z przesunięciem czasowym”, „na żądanie” oraz „na zamówienie”. Jest on systemem hierarchicznym dwupoziomowym, osadzonym w sieci PIONIER, opartym o strukturę Regionalnych Centrów Danych (RCD, I poziom dystrybucji) oraz urządzeń proxy/cache (II poziom dystrybucji) - przyłączonych do odpowiednich RCD i zlokalizowanych blisko użytkowników końcowych (w sieciach operatorów Internetu ISP). Zadaniem systemu SDT jest zapewnienie skalowalnego i efektywnego dostępu do treści multimedialnej dla dużej liczby odbiorców. System SDT implementuje mechanizmy dystrybucji treści, wymiatania oraz replikacji i migracji zasobów cyfrowych. System ten zapewnia mechanizmy lokalizowania treści na rzecz wybranego użytkownika oraz jej udostępniania z wysoką jakością. Ponadto wyposażony został w mechanizmy monitorowania stanu, co pozwala dokonywać równoważenia obciążenia w systemie.


Sieć PIONIER stanowi podstawę do tworzenia zaawansowanych usług dla nauki. Równocześnie posiada ona bezpośrednie połączenia z sieciami naukowymi krajów sąsiednich, co stanowi obecnie w Europie ważny paradygmat budowania kolejnej sieci paneuropejskiej GÉANT3 w ramach 7. Programu Ramowego. Bezpośrednie połączenia światłowodowe pomiędzy sieciami naukowymi tzw. CBF (ang. Cross-Border Fiber) zostały zaproponowane przez polskie środowisko naukowe [17, 18]. Polskie podejście do budowania krajowych sieci optycznych połączonych z sieciami krajów sąsiednich i tworzenie tzw. e-Regionów [19], stanowiło bazę dla realizacji studyjnego projektu europejskiego PORTA OPTICA [20] ukierunkowanego na włączenie do sieci europejskiej sieci naukowych krajów dawnej Europy Wschodniej i niektórych państw zakaukaskich.
Polskie inicjatywy w zakresie budowania światłowodowych sieci lokalnych i kampusowych, naukowych sieci miejskich, czy krajowej sieci PIONIER umożliwiają realizację idei światłowodu „od końca do końca” Zapewnia to środowisku naukowemu nieograniczony, szerokopasmowy dostęp do przepustowości sieci i zasobów do tej sieci podłączonych. Drugą grupą technologii związanych z rozwojem komunikacji w środowisku akademickim są technologie łączności bezprzewodowej (np. WiFi). Gwałtowny rozwój tych technologii doprowadził do ich szerokiej dostępności, w związku z czym naukowiec nie musi być „przywiązany” do stacjonarnego komputera i może w dowolnym czasie i miejscu, w obszarze oddziaływania technologii WiFi, połączyć się ze swoją macierzystą siecią i kontynuować pracę lub nadzorować badania. Stworzony został system ułatwień dla światowego (europejskiego) roamingu i dostępu do sieci o nazwie Eduroam [21]. Powszechność stacji dostępowych WiFi umożliwia realizację połączeń w bardzo wielu obiektach prywatnych, publicznych, centrach miast itp. Jeśli do tych możliwości doda się możliwość łączności za pośrednictwem transmisji przez telefon komórkowy, to w efekcie otrzymujemy możliwość komunikacji „zawsze i wszędzie”. Lawinowy wzrost liczby połączeń światłowodowych oraz połączeń transmisji mobilnych staje się podstawowym paradygmatem rozwoju zaawansowanych systemów usługowych.



    1. 2.2. Infrastruktura gridowa

Rozproszone zasoby obliczeniowe, pamięci, urządzenia badawcze, źródła danych


(np. sensory), stanowią bardzo ważny składnik infrastruktury informatycznej nauki. Szybkie sieci komputerowe pozwalają zbudować efektywną sieć połączeń tych rozproszonych składników. Powstaje jednak bardzo trudny problem współużytkowania tych zasobów przez wiele środowisk naukowych, projektów itp., z równoczesnym zapewnieniem adaptowania się tej infrastruktury do ich wymagań. Ponadto problemem jest kwestia dostosowania systemów do użytkowania przez szerokie gremium nie informatyków. Aby rozwiązać te problemy, opracowano metody i narzędzia tworzące tzw. architekturę gridową [22]. Umożliwiają one wirtualizację zasobów z możliwością ich dynamicznego przydzielania wirtualnym organizacjom badawczym, zapewniając równocześnie łatwy i efektywny dostęp do tego środowiska [23]. Ponadto wymagane są takie cechy, jak: autonomiczność, niezawodność i bezpieczeństwo. Powstało wiele różnych systemów gridowych (ang. Grid Middleware), np. Globus Toolkit [24], Condor [25], Unicore [26]. Wszystkie te systemy oferują podobne usługi gridowe, chociaż zastosowane w nich technologie i standardy są różne. Mimo bardzo wysokiej złożoności tych systemów, ich funkcjonalność jest jeszcze ograniczona. Z tego względu bardzo duże znaczenie mają prace badawczo-rozwojowe w zakresie tej tematyki, prowadzone w 5. i 6. Programie Ramowym, a także w krajowych projektach celowych. Do najbardziej znanych rozwiązań należą architektury gridowe powstałe w projektach GridLab i CrossGrid, koordynowanych odpowiednio przez PCSS i CYFRONET AGH.
Polskie zespoły uczestniczyły także w wielu europejskich projektach gridowych w 5. i 6. Programie Ramowym (Rys.6). Na rysunku tym czerwoną obwódką objęte są projekty koordynowane przez polskie jednostki. Ponadto rysunek zawiera dwa produkty (Gridge [27], Migrating Desktop [28]) powstałe w ramach tych projektów, które były szeroko używane w innych projektach europejskich i światowych.




Rys. 6 Udział polskich zespołów w projektach gridowych
Podsumowując krótką dyskusję e-infrastruktury należy zauważyć, że powstała w Europie i w Polsce infrastruktura gridowa, w powiązaniu z infrastrukturą sieciową, dała podstawę do opracowania wielu aplikacji w różnych obszarach, np. radioastronomii, fizyce wysokich energii, medycynie.



    1. 2.3. Infrastruktura warstwy danych naukowych

Ogólna idea powiązania z e-infrastrukturą dodatkowej warstwy, tzw. warstwy danych naukowych, związana jest z potrzebą udostępnienia metod i narzędzi wspomagania całości procesów badawczych. Wynika z tego potrzeba zintegrowania z e-infrastrukturą takich systemów, jak np. wirtualne laboratoria, biblioteki cyfrowe, repozytoria, bazy danych. To otoczenie badań naukowych powinno być dostępne dla użytkowników w podobny sposób jak usługi dostępu do sieci i gridów. Prace dotyczące aplikacji wspomagających prace naukowe prowadzone były już w 6. Programie Ramowym. Również w Polsce, w ramach programu PIONIER i projektu celowego SGIGrid, powstały odpowiednio: biblioteka cyfrowa dLibra i wirtualne laboratorium. Warstwa danych naukowych w 7. Programie Ramowym nie została jeszcze precyzyjnie zdefiniowana. Program rozpoczął się w roku 2007,a trwać będzie do roku 2013, a więc w kolejnych jego fazach podstawowe tezy będą uszczegóławiane.


3. Integracja e-infrastruktury z przykładowymi obszarami badań naukowych
3.1. Radioastronomia
Tradycyjna radioastronomia wykorzystywała radioteleskopy pracujące oddzielnie i oddalone od siebie o tysiące kilometrów, które obserwowały ten sam fragment nieba (technika VLBI). Zebrane dane były próbkowane cyfrowo i przechowywane lokalnie na taśmach magnetycznych i dyskach. Taśmy te były następnie przesyłane do centralnego punktu (JIVE w Holandii), gdzie były korelowane za pomocą korelatora sprzętowego. Sumaryczny strumień danych trafiający do procesora centralnego to 10-100 TB na obserwowany sygnał. Po wstępnym przetworzeniu dane są redukowane do 10-100 GB. W efekcie uzyskiwane są bardzo wysokiej rozdzielczości obrazy continuum i linii spektralnych kosmicznych źródeł radiowych. Cykl zajmował ok. 6 miesięcy. Próba korelacji w czasie rzeczywistym została podjęta w ramach programu EXPReS. Uzyskano produkcyjną usługę e-VLBI, umożliwiającą niezawodne podłączenie radioteleskopów do komputera centralnego za pośrednictwem szybkich łączy optycznych (1 Gb/s). Konfigurację pilotową przedstawiono na Rys. 7.





Rys. 7 Konfiguracja pilotowa e-VLBI
W niedalekiej przyszłości wymagania przepustowości dla jednego radioteleskopu osiągną 10 Gb/s. Warto zauważyć, że jakościowa zmiana badań została uzyskana przez zastosowanie e-infrastruktury na poziomie sieciowym.
W projekcie EXPReS podjęto próbę wykorzystania także infrastruktury gridowej do zbudowania rozproszonego korelatora, pozbawionego wad korelatora sprzętowego. System obejmuje sieć serwerów plików skojarzonych z radioteleskopami. Zbierane dane, dzielone na paczki, są wysyłane do węzłów rozproszonego korelatora i przetwarzane w czasie rzeczywistym w środowisku gridowym. Architektura systemu wraz z przepływem danych przedstawiona jest na Rys. 8.


Rys. 8 Architektura rozproszonego korelatora


3.2. Fizyka wysokich energii
„Światowa społeczność fizyków niecierpliwie czeka na uruchomienie najpotężniejszego w historii urządzenia do badania cząstek elementarnych” napisał Graham P. Collins [29].
Tym urządzeniem jest Wielki Zderzacz Hadronów (LHC – ang. Large Hadron Collider), którego budowa w CERN zakończy się w tym roku. Rozpędzone przeciwbieżne paczki protonów będą zderzały się produkując nowe cząstki, które muszą zostać wykryte przez detektory ATLAS, ALICE, CMS, LHCb, rejestrujące te zdarzenia. Dane z detektora produkowane są z szybkością 0.5 PB/s i następnie redukowane zgodnie z predefiniowanymi kryteriami. Do przechowywania i przetwarzania tych ogromnych ilości danych stosuje się wielopoziomową infrastrukturę gridową. Poziom „0” zlokalizowany jest w CERN, natomiast poziom 1 w 11 dużych ośrodkach obliczeniowych na świecie. Do wielu dołączone są ośrodki regionalne poziomu 2. W Polsce są trzy takie ośrodki: w Krakowie (Cyfronet), Poznaniu (PCSS) i w Warszawie (ICM). Są one podłączone dedykowanymi kanałami 1 Gb/s poprzez sieci naukowe PIONIER i DFN do centrum Tier1 w Karlsruhe (Rys.9).




Rys. 9 Grid fizyki wysokich energii
Polski udział w przygotowaniu LHC jest znacznie szerszy i został opisany w [30]. Współpraca fizyków z IFJ PAN w Krakowie i IPJ z Uniwersytetu Warszawskiego z informatykami skutkowała udziałem i koordynacją w dużym gridowym projekcie CrossGrid, a następnie w trzech kolejnych projektach EGEE (The Enabling Grids for E-sciencE).
Infrastruktura sieciowa i gridowa umożliwiła w tych projektach zbudowanie produkcyjnego systemu przechowywania danych i obliczeń w środowisku rozproszonych w świecie klastrów. Bez takiej sieci obliczeniowej nie byłoby możliwe prowadzenie badań naukowych związanych z LHC. Przyszłościowe wymagania na przepustowość sieci dla tego zastosowania definiowane są w perspektywie do 2015 r. w zakresie od 100 Gb/s do 1 Tb/s [31].

4. Podsumowanie
Infrastruktura informatyczna nauki, zwana e-infrastrukturą, ma bardzo istotne znaczenie dla prowadzenia badań we wszystkich dyscyplinach nauki. Niektóre z dyscyplin naukowych, np. fizyka obliczeniowa, chemia obliczeniowa, radioastronomia, fizyka wysokich energii, nie mogłyby być dzisiaj rozwijane, gdyby nie integracja z
e-infrastrukturą. Integracja ta może występować na dowolnym poziomie e-infrastruktury. Im ten poziom jest wyższy, tym powstałe aplikacje i usługi są bardziej kompleksowe i lepiej dopasowane do specyficznych wymagań zespołów naukowych.
Aby sprostać tym wymaganiom, w zakresie e-infrastruktury muszą być prowadzone intensywne prace naukowo-badawcze i badawczo-rozwojowe.
Szersze ujęcie tej problematyki można znaleźć w [32].

Literatura:


  1. M.Nakonieczny, S.Starzak, M.Stroiński, J.Węglarz - „Polish scientific broadband network: POL-34”, Computer Networks 30, 1998, 1669-1676.

  2. J.Rychlewski, J.Węglarz, S.Starzak, M.Stroiński, M.Nakonieczny – „PIONIER: Polish Optical Internet”, materiały konferencyjne konferencji ISThmus2000, 11-13. kwietnia 2000, Poznań, 19-28.

  3. Revolutionizing Science and Engineering Through Cyberinfrastructure. January 2003

  4. „e-Infrastructure - Building blocks for the European research area”, Information Society and Media DG, December 2004.

  5. http://ec.europa.eu/research/infrastructures/pdf/fp7-brochure_en.pdf

  6. www.geant2.net

  7. A.Binczewski, N.Meyer, J.Nabrzyski, S.Starzak, M.Stroiński, J.Węglarz – „First experiences with the Polish Optical Internet”, Computer Networks 37 (2001),747-759.

  8. M.Campanella, M.Przybylski, R.Roth, A.Sevasti, N.Simar - "Multidomain End to End IP QoS and SLA - The Sequin Approach and First Experimental Results on a Pan-European Scale", Springer 2003 Proceedings 2003 XV, 759.

  9. W.Barbaix, A.Binczewski, M.Przybylski, M.Stroiński, S.Trocha - "Testing ATRIUM with Demanding Applications", TNC 2003, Zagrzeb

  10. A.Binczewski, B.Gajda, W.Procyk, M.Stroiński, R.Szuman - "Management of IPv6 Networks with IPv4/IPv6 SNMP Gateway", TNC 2003, Zagrzeb

  11. http://www.ist-mupbed.org/

  12. A.Hanemann, J.W.Boote, E.L.Boyd, J.Durand, L.Kudarimoti, R.Łapacz, D.M.Swany, J.Zurawski, S.Trocha - "PerfSONAR: A Service Oriented Architecture for Multi–Domain Network Monitoring", In "Proceedings of the Third International Conference on Service Oriented Computing", Springer Verlag, LNCS 3826, pp. 241–254, ACM Sigsoft and Sigweb, Amsterdam, The Netherlands, December, 2005.




  1. J.W.Boote, E.L.Boyd, J.Durand, A.Hanemann, L.Kudarimoti, R.Łapacz, N.Simar, Trocha - "Towards Multi–Domain Monitoring for the European Research Networks", In "Selected Papers from the TERENA Networking Conference", TERENA, ISBN 90-77559-04-3, 2005; also published in "Computational Methods in Science and Technology", ISSN 1505-0602, vol. 11(2), pp. 91-100, Poznań, Poland, 2005.

  2. M.Czyrnek, E.Kuśmierek, C.Mazurek, M.Stroiński – “Large-Scale Multimedia Content Delivery over Optical Networks for Interactive TV Services”, The International Journal of Future Generation Computer Systems, Elsevier, Vol 22/8 (2006), pp. 1018-1024

  3. E.Kuśmierek, M.Czyrnek, C.Mazurek, M.Stroiński – “iTVP: Largescale content distribution for live and on-demand video services” in Multimedia Computing and Networking SPIE-IS&T Electronic Imaging, R. Zimmermann and C. Griwodz, Eds., 2007, article CID 6504-8

  4. R.Buyya, M.Pathan, A.Vakali, eds. – “Content Delivery Networks”, Springer, 2008, ch. 13: CDN for Live and On-Demand Video Services over IP

  5. J.Nabrzyski, S.Starzak, M.Stroiński, J.Węglarz – „Concept of the Academic and Research European Multicolour Network”, materiały konferencyjne konferencji ISThmus2000, 11-13 kwietnia 2000, Poznań, 31-38.

  6. A.Binczewski, M.Stroiński, J.Węglarz – “Sieć nowej generacji dla elektronicznej Europy”, materiały konferencyjne Konferencji „Polski Internet Optyczny: Technologie, Usługi i Aplikacje PIONIER2001”, 24-27 kwietnia 2001, Poznań, 371-382.

  7. N.Meyer, M.Stroiński, J.Węglarz – „Optical Network for Euro-Regional Cooperation”, materiały konferencyjne na Polish-German Symposium Science Research Education, SRE’2000, 28-29 września 2000, Zielona Góra

  8. "Optical Networks development in Eastern Europe and Southern Caucasus regions", Parliament magazine, 2007.

  9. www.eduroam.org

  10. I.Foster, C.Kesselman “The Grid: Blueprint for a New Computing Infrastructure”, Second Edition, Elsevier 2004.

  11. J.Nabrzyski, J.Schopf, J.Węglarz, eds. – “Grid Resource Management”, Kluwer Academic Publishers, Boston/-Dordrecht/London, 2003.

  12. Globus Toolkit Version 4: Software for Service-Oriented Systems. I. Foster. IFIP International Conference on Network and Parallel Computing, Springer-Verlag LNCS 3779, 2006, 2-13.

  13. M.J.Litzkow, M.Livny, M.W.Mutka – “Condor - A Hunter  of Idle Workstations”, ICDCS 1988: 104-111.

  14. D.Breuer, E.Dietmar, D.Mallmann, R.Menday, M.Romberg, V.Sander, B.Schuller, P.Wieder (2004) – “Scientific Computing with UNICORE”, NIC Symposium 2004: 17.- 18. Feburary 2004, Forschungszentrum Jülich; proceedings / ed.: D. Wolf, G. Münster, M. Kremer. - Jülich, Forschungszentrum, 2004. - (NIC series ; 20). - 3-00-012372-5. - S. 429 – 440.

  15. J.Pukacki, M.Kosiedowski, R.Mikołajczak, M.Adamski, P.Grzybowski, M.Jankowski, M.Kupczyk, C.Mazurek, N.Meyer, J.Nabrzyski, T.Piontek, M.Russell, M.Stroiński, M.Wolski – “Programming Grid Applications with Gridge”, Computational Methods in Science and Technology 12(1), 2006, 47-68.

  16. M.Płóciennik, M.Owsiak, E.Fernández, E.Heymann, M.A.Senar, S.Kenny, B.Coghlan, S.Stork, P.Heinzlreiter, H.Rosmanith, I.Campos Plasencia, R.Valles -"Int.eu.grid project approach on supporting interactive applications in grid environment" INGRID 2007, Springer Verlag, 2008 (w druku)

  17. G.P.Collins – „Machina do odkryć”, Świat Nauki, kwiecień 2008, nr 4, 37-43.

  18. J.P.Nassalski - „Polska cząstka w LHC”, Świat nauki, kwiecień 2008, nr 4, 52-57.

  19. H.Newman and al. – “The UltraLight Project: The Network as an Integrated and Manager Resource for Data-Intensive Science”, Computing Science and Engineering, November/December 2005 (vol. 7, No 6), 38-47.

[32] M. Stroiński, J. Węglarz , “Znaczenie e-infrastruktury dla nauki”, Nauka (2008, w

druku).






©absta.pl 2016
wyślij wiadomość

    Strona główna