• z.polkowski@ujw.pl

Kongres Jubileuszowy SEP

Kongres Jubileuszowy SEP

Kongres jubileuszowy SEP,

Warszawa 2-4 września 2009

 

Problematyka społeczeństwa informacyjnego

 

 

PRZEDMOWA

Zbigniew Kierzkowski, Konsorcjum Sieci Laboratoriów WOD: Łódź-Olsztyn-Polkowice-Poznań, Wyższa Szkoła Informatyki w Łodzi

Jan Kwiatkowski, Politechnika Wrocławska

 

 

Podczas Sesji omawiano aspekty technologiczne, organizacyjne i gospodarcze  „kształtowania społeczeństwa informacyjnego”, prezentowane przez specjalistów i ośrodki współpracujące w tematycewirtualnej organizacji działań – WOD.


Tematyka Sesji obejmowała głównie na tematykę budowy infrastruktury informacyjnej i komunikacyjnej i upowszechnianiu usług sieciowych.

 

 

 

W programie Sesji prezentowano 22 prace; nawiązywały one do tematyki organizowanych przez ZG SEP corocznych Konferencji Okrągłego Stołu: Polska w drodze do społeczeństwa informacyjnego.

 

Wychodzi się z założenia, że procesy przemian cywilizacyjnych w pojawiającym się społeczeństwie informacyjnym są następstwem upowszechniania technologii informacyjnych i komunikacyjnych – I&CT(Information and Communication Technology) i technologii wirtualnej (cyfrowej) organizacji działań – WOD. Określają one nowe sposoby wirtualnej integracji (współdziałania) przedsiębiorstw i wirtualnej integracji (współpracy) ludzi – główne czynniki rozwoju  technologii społeczeństwa informacyjnego – IST (Information Society Technology).

 

W efektywnej budowie społeczeństwa informacyjnego niezbędne jest wykorzystanie innowacyjnych paradygmatów architekturalnych tworzenia systemów informatycznych, stawiających nacisk na definiowanie usług, które spełnią wymagania użytkownika. Do nich należy architektura zorientowana na usługi – SOA (Service Oriented Architecture).

 

Tworzone są coraz powszechniej różnorodne systemu wzajemnej (interaktywnej) wymiany danych, sieciowe systemy cyfryzacji i archiwizacji dokumentów źródłowych, i dostępu  do informacji przedmiotowej, budowane dla wirtualnej (cyfrowej) organizacji działań. W środowisku różnorodnych wirtualnych sieci danych – D  i wiedzy (informacji) przedmiotowej – WP: e – SD&WP podlegają przemianom:

–        przedmiot i formy nauczania; pojawiają się nowe profile pacy zawodowej,

–        zachowania człowieka w życiu, w środowisku publicznych systemów informatycznych;  pojawia się wirtualna integracja współpracujących ze sobą ludzi,

–        postępowanie przedsiębiorstw we współdziałaniu; pojawiają się wirtualne przedsiębiorstwa („przedsiębiorstwa przyszłości”), wirtualne struktury organizacji pracy zespołowej.

 

Architektura infrastruktury złożonej z wzajemnie powiązanych systemów informacyjnych  nie tylko definiuje jej wewnętrzną budowę, lecz w znacznym stopniu odpowiada na pytanie, w jaki sposób może być ona zastosowana i w jakim kierunku przebiegać mogą jej modyfikacje.

 

Zwraca się uwagę na wiele sposobów, często różnych  opisów obrazów społeczeństwa informacyjnego. Pokazuje się, że różnice wynikają stąd, że do opisu nieznanej rzeczywistości trzeba brać pod uwagę czynniki technologiczne, informacyjne i organizacyjne, które maja wpływ na obrazy cyfrowej organizacji w gospodarce, polityce i społeczeństwie.

 

Przemianom strukturalnym podlegają działania: organizacyjne i gospodarczespołeczne i polityczne, polityki naukowej i edukacyjne. Reformowane są  tradycyjne struktury działań. Wprowadzane zmiany nie ograniczają się tylko do przemian organizacyjnych (przedsiębiorstw, instytucji, polegających głównie na tzw. decentralizacji) lecz reformowanie w coraz większym stopniu polegać zaczyna na przemianach, określanych jako przemiany strukturalne, których istota polega na tworzeniu mechanizmów zarządzania funkcjami i zadaniami w nowym cyfrowym stylu (wirtualnej organizacji) działań. Decentralizacja nie wystarcza. Jej skutki są  niewystarczające w procesach przemian strukturalnych organizacji nowego społeczeństwa; ograniczanie się do rozumienia przemian jako proces decentralizacji, to tak, jakby chcieć opisywać kształt składowej bez stawiania wcześniej, w centrum uwagi, obrazu całości nowego społeczeństwa, a głównie zachowań osobowych i dobra wspólnego (całości społeczeństwa). Wszystko to jest ważne w ustalaniu zachowań osobowych i postępowania organizacji w tworzeniu infrastruktury informacyjnej i organizacyjnej nowego społeczeństwa

 

Sesję przygotowała Sieć Laboratoriów WOD: Łódź – ólsztyn – Polkowice – Poznań.

clip_image002

 

 

 

Sieć Laboratoriów WOD: Łódź-Olsztyn-Polkowice-Poznań

 

Uczestniczyły w niej zespoły: Wyższej Szkoły Informatyki w Łodzi, Olsztyńskiej Wyższej Szkoły Informatyki i Zarządzania, Dolnośląskiej Wyższej Szkoły Techniki i Przedsiębiorczości w Polkowicach, Politechniki Poznańskiej  i Politechniki Wrocławskiej. W przygotowaniu Sesji udzieliły pomocy firmy: Vector On Line z Poznania i DNS Polska z Krakowa, uczestniczyły Studenckie Koła Naukowe Sieci Laboratoriów WOD: Łódź – Olsztyn – Polkowice – Poznań oraz Politechniki Poznańskiej.

 

Treści Sesji są komplementarne względem tematyki przygotowywanego XII Seminarium problemowego WOD: Człowiek i organizacje w środowisku lokalnych i regionalnych społeczności informacyjnych; Włocławek 5 – 6 listopada 2009 (w przygotowaniu).

 

Organizatorami Seminarium są: Urząd Miasta Włocławka, Wyższa Szkoła Informatyki w Łodzi-Włocławku, Wyższe Seminarium Duchowne we Włocławku. Patronem  organizacyjnym Seminarium jest:Stowarzyszenie Elektryków Polskich – SEP, główny organizator Obchodów w Polsce Światowego Dnia Społeczeństwa Informacyjnego. Patronem naukowym Seminarium jest: Towarzystwo Naukowe Prakseologii – TNP. Pracom  badawczo-rozwojowych patronuje: Ministerstwo Infrastruktury – MI. Planowana tematyka główna włocławskiego XII Seminarium problemowego WOD jest następująca:

  1. Wprowadzenie: Elementy integralność rozwoju społeczności informacyjnych.
  2. Budowa infrastruktury informacyjnej i komunikacyjnej i upowszechnianiu usług sieciowych.
  3. Obrazy cyfrowej organizacji działań.
  4. Przekazywanie wiedzy i kształtowanie osobowości w pedagogice  kompetencji informacyjnych.
  5. Zachowania osobowe i dobro wspólne w strukturach współdziałania. .

 

Zbigniew Kierzkowski, Jan Kwiatkowski

Współprzewodniczący

 

Warszawa, dnia 3 września 2009

 

 

 

 

Streszczenia wystąpień

 

 

 

 

Część I. WPROWADZENIE

 

 

1. Wirtualna organizacja działań w rozwoju technologii społeczeństwa informacyjnego

Zbigniew Kierzkowski

Konsorcjum Sieci Laboratoriów WOD: Łódź-Olsztyn-Polkowice-Poznań,

Wyższa Szkoła Informatyki w Łodzi

 

Procesy przemian cywilizacyjnych w pojawiającym się społeczeństwie informacyjnym są następstwem upowszechniania technologii informacyjnych i komunikacyjnych – I&CT (Information and Communication Technology) i technologii wirtualnej (cyfrowej) organizacji działań – WOD. Określają one nowe sposoby wirtualnej integracji (współdziałania) przedsiębiorstw i wirtualnej integracji (współpracy) ludzi – główne czynniki rozwoju  technologii społeczeństwa informacyjnego – IST (Information Society Technology). Obecnie obserwuje się wiele sposobów, często różnych  opisu obrazów społeczeństwa informacyjnego. Różnice wynikają stąd, że do opisu nieznanej rzeczywistości trzeba brać pod uwagę czynniki technologiczne, informacyjne i organizacyjne, które maja wpływ na obrazy cyfrowej organizacji w gospodarce, polityce i społeczeństwie.

 

Kształtuje się środowisko współdziałania przedsiębiorstw i współpracy ludzi ze składowymi (A, B i C, D) integracji informacyjnej i organizacyjnej działań.

 

 

 

clip_image003

 

 

 

 

 

 

 

 

 

 

 

 

 

Rys. 1. Główne czynniki stanowienia struktur społeczeństwa informacyjnego

 

Na technologie WOD  składają się elementy: T – techniczne, – informacyjne, H – czynniki ludzkie (udziału człowieka), O – organizacyjne.

 

T – Składowa techniczna obejmuje elementy budowy infosfery komunikacji na wpół (semi) bezpośredniej otwartej opartej na międzysieciowych serwisach informacyjnych: KsBO-MSI; mówimy o pojawianiu się  wirtualnego środowiska informacji – środowiska systemów WOD. W systemach WOD korzysta się z usług infrastruktury KsBO-MSI:

–        tworzenia zasobów danych cyfrowych – D w procesie cyfryzacji, archiwizacji i przekazywania dokumentów źródłowych informacji przedmiotowej;

–        agregacji zasobów cyfrowych – D i  komputerowej wymiany informacji,

–        dostępu do zasobów cyfrowych D i wizualizacji informacji, koordynacji przepływu informacji.

 

I oraz H – Składowa informacyjna i udziału ludzi określają metody komputerowe tworzenia i wymiany zasobów danych cyfrowych – D, a także sposoby strukturalizacji wiedzy przedmiotowej – WP, wszystko ustalane przez człowieka (human factors)Potrzebna jest strukturalizacja gromadzenia dokumentów źródłowych informacji przedmiotowej – D jako składowej technologicznej wiedzy przedmiotowej – WP. Realizowane jest to  przez człowieka z wykorzystaniem kompetencji informacyjnych: statycznych – dostępu do danych i rozumienia informacji (treści), dynamicznych – dostępu do informacji i tworzenia schematów wiedzy przedmiotowej – WP.

clip_image004

 

 

 

O – Składowa organizacyjna przedstawia obrazy wirtualnej (cyfrowej) organizacji działań w obszarach: nauczaniażycia –  zachowań indywidualnych i społecznych ludzi, pracy – wirtualnych sposobów integracji ludzi we współpracy i wirtualnych sposobów integracji przedsiębiorstw w organizacji ich współdziałania. Rezultatem jest kształtowanie struktur cyfrowej (wirtualnej) organizacji: (1) nauczania, (2) życia – zachowań człowieka (ludzi) w środowisku publicznych systemów informacyjnych, (3) pracy, (4) współdziałania przedsiębiorstw.

 

Struktury zatem WOD w pojawiającym się społeczeństwie informacyjnym, tworzone coraz powszechniej to różnorodne systemu wzajemnej (interaktywnej) wymiany danych, sieciowe systemy cyfryzacji i archiwizacji dokumentów źródłowych, i dostępu  do informacji przedmiotowej, budowane dla wirtualnej (cyfrowej) organizacji działań. W środowisku tym, różnorodnych wirtualnych sieci danych – D  i wiedzy (informacji) przedmiotowej – WP: e – SD&WP podlegają przemianom:

–        przedmiot i formy nauczania; pojawiają się nowe profile pacy zawodowej,

–        zachowania człowieka w życiu, w środowisku publicznych systemów informatycznych;  pojawia się wirtualna integracja współpracujących ze sobą ludzi,

–        postępowanie przedsiębiorstw we współdziałaniu; pojawiają się wirtualne przedsiębiorstwa („przedsiębiorstwa przyszłości”), wirtualne struktury organizacji pracy zespołowej.

 

Technologie społeczeństwa informacyjnego stwarzają możliwości kontaktu i komunikowania oraz tworzenia dotąd niespotykanych relacji. Możliwości komunikowania w wielu przypadkach nabierają cech strukturalnej regularności; pojawiają się społeczności wirtualne, jednoczące rozproszonych ludzi i organizacje wokół wspólnych prac, zainteresowań, czy nawet idei. W społeczności wirtualnej jednostka, czy organizacja jest jej aktywnym uczestnikiem, społeczność upoważnia je do korzystania ze wszystkiego, co one proponują. Kontakty, poza wykorzystywaniem komunikacji komputerowej, cechuje wzajemność, a także – także bezinteresowna –  wymiana informacji. Uwidacznia się poczucie osiągania  własnych korzyści, możliwe w środowisku wzajemnej (interaktywnej) wymiany zasobów danych.  Należy sądzić, że ustalać się będą swego rodzaju normy ustalające obowiązki człowieka i organizacji w zespołach społeczności wirtualnych. Społeczności wirtualne wnoszą więc elementy, które mogą być przedmiotem wartościowania (idei, myśli, informacji, wiedzy).

 

Niebezpieczeństwo niestosownych uregulowań współzależności wzajemnej ludzi i organizacji mogą stać się niestety instrumentem manipulacji. Jest wiele rodzących się wątpliwości. Także obecne zasady własności, przenoszone na społeczności wirtualne, prowadzą do wielu pytań o przyszłość infrastruktury organizacji społeczeństwa. Czy będzie sprywatyzowana? Czy będzie podzielona między tych, których stać na jej kupno? Czy coraz bardziej połączona i rosnąca w siłę, o coraz mniejszych kosztach, znajdzie się pod kontrolą dużych, czy małych organizacji? Jak formułować nowe paradygmaty organizacji społeczeństwa, głównie gospodarcze, społeczne polityczne i społeczne?  Ujawnią się nierówności (wynikające z aktywności osobowej w procesach  tworzenia i dostępu do zasobów informacyjnych – nazywanych zasobami intelektualnymi). Na rodzące się pytania nie można poszukiwać odpowiedzi jedynie w kontekście badań nad metodami, technikami i użytecznością nowych technologii wirtualnej organizacji działań – WOD. Istota bowiem przemian polega na tym, że technologie WOD – stają się nowoczesną humanistyką; uwzględniają wprost  czynniki udziału człowieka (human factors) w przemianach strukturalnych organizacji działań.

 

Przemianom strukturalnym podlegają działania: organizacyjne i gospodarczespołeczne i polityczne, polityki naukowej i edukacyjne. Reformowane są  tradycyjne struktury działań. Wprowadzane zmiany nie ograniczają się tylko do przemian organizacyjnych (przedsiębiorstw, instytucji, polegających głównie na tzw. decentralizacji) lecz reformowanie w coraz większym stopniu polegać zaczyna na przemianach, określanych jako przemiany strukturalne, których istota polega na tworzeniu mechanizmów zarządzania funkcjami i zadaniami w nowym cyfrowym stylu (wirtualnej organizacji) działań. Decentralizacja nie wystarcza. Jej skutki są  niewystarczające w procesach przemian strukturalnych organizacji nowego społeczeństwa; ograniczanie się do rozumienia przemian jako proces decentralizacji, to tak, jakby chcieć opisywać kształt składowej bez stawiania wcześniej, w centrum uwagi, obrazu całości nowego społeczeństwa, a głównie zachowań osobowych i dobra wspólnego (całości społeczeństwa). Wszystko to jest ważne w ustalaniu zachowań osobowych i postępowania organizacji w tworzeniu infrastruktury informacyjnej i organizacyjnej nowego społeczeństwa.

 

 

 

 

 

clip_image005

 

 

2. Infrastruktura informacyjna i komunikacyjna we współdziałaniu

Jan Kwiatkowski

Politechnika Wrocławska, Wydział Informatyki i Zarządzania

 

Wykorzystywane współcześnie systemy komputerowe powstały jako rezultat wieloletniej ewolucji. Ewolucji związanej ze zmianą możliwości technicznych – wzrostem prędkości obliczeń, malejącym czasem i rosnącą przepustowością komunikacji, rosnącą pojemnością urządzeń przechowywania danych, ale przede wszystkim ewolucji w pojmowaniu założeń stojących u podstaw konstrukcji i wykorzystania systemów informatycznych. Architektura systemu nie tylko definiuje jego wewnętrzną budowę, lecz w znacznym stopniu odpowiada na pytanie, w jaki sposób może być on zastosowany i w jakim kierunku przebiegać mogą jego modyfikacje. Jednocześnie w ostatnich latach coraz większego znaczenia nabierają obliczenia równoległe gdzie w proces obliczeniowy mający na celu rozwiązanie określonego zadania zaangażowanych jest jednocześnie wiele procesorów. Celem takiego postępowania jest przyspieszenie obliczeń, czyli otrzymanie wyników szybciej niż w przypadku systemu z jednym procesorem. Przy rozwiązywaniu niektórych problemów jest to jedyny sposób, aby otrzymać wyniki w sensownym, akceptowalnym czasie, przykładowo, w systemach prognozowania pogody bez obliczeń równoległych ostateczną prognozę (o akceptowalnej wiarygodności) otrzymalibyśmy zbyt późno. Wynika z tego, że jako strukturę implementacyjną współczesnych systemów należy brać pod uwagę rozproszone środowiska obliczeniowe średniej i dużej skali.

Z drugiej strony aktualne tendencje w projektowaniu systemów bazują na paradygmacie SOA (Service Oriented Architecture). Pojęcie SOA nie ma jednej uznanej definicji. Bazując na pracy [2] SOA jest podejściem do projektowania, implementacji i rozmieszczania systemu informatycznego w taki sposób, że system jest tworzony z komponentów implementujących dyskretne funkcje biznesowe. Komponenty te, zwane „usługami”, mogą być rozproszone geograficznie oraz w razie potrzeby mogą być rekonfigurowane w nowy proces biznesowy. W literaturze poruszającej tematykę systemów zorientowanych na usługi pojawiają się pojęcia IaaS (Infrastructure as a Service), PaaS (Platform as a Service) oraz SaaS (Software as a Service). Pierwsze jest to usługa polegającą na dostarczeniu przez dostawcę całej infrastruktury informatycznej, jak np. wirtualizowany sprzęt, skalowany w zależności od potrzeb użytkownika. SaaS to usługa polegająca na tym, że aplikacja jest przechowywana i udostępniana przez producenta użytkownikom poprzez Internet. Zdejmuje to z użytkownika obowiązki instalacji, zarządzania, aktualizacji czy nawet zapewnienia bezpieczeństwa i przerzuca je na dostarczyciela aplikacji. Pojęcie PaaS nie jest do końca sprecyzowane i oznacza usługę polegającą na udostępnieniu przez dostawcę wirtualnego środowiska pracy.

Mechanizmy używane do budowy standardowych systemów muszą obecnie ewoluować w kierunku zapewnienia podobnych celów jak w systemach SOA. Przykładowo, podczas projektowania architektury systemu należy brać pod uwagę aby była ona bezpieczna, elastyczna i umożliwiała zmienność. Przy rozpatrywaniu wydajności systemów należy brać pod uwagę, pomoc w zapewnieniu, że wydajność web serwisów spełnia wymagania wydajnościowe dla systemu SOA.

Inną z często używanych technik jest wirtualizacja systemów. Można ją wykorzystać w systemach SOA do dostarczania zasobów obliczeniowych w zmienny i dynamiczny sposób w celu polepszenia dostępności i wydajności serwisów. Zamiast poświęcać jeden zasób sprzętowy na jeden system z serwisami, kolejny na kolejny zestaw itd., można zwirtualizować te systemy i osadzić na tym samym sprzęcie.

SOKU (Service Oriented Knowledge Utility) jest nowym paradygmatem dostarczania usług oraz infrastruktury informatycznej w następnej dekadzie, po 2010 roku [1]:

–        elastyczną, wydajną i efektywną kosztowo metodą budowy, wykorzystania i rozwijania rozwiązań ICT (Information Communication Technology) w biznesie, nauce i społeczności.

–        bazuje na istniejących sprawdzonych przemysłowych praktykach, aktualnych trendach oraz nowych pojawiających się technologiach

–        dostarcza zasad i metod do łączenia usług w ekosystem, promuje tym samym  współpracę oraz samoorganizację

–        charakteryzuje się zwiększoną zwinnością, mniejszymi kosztami dodatkowymi, większą dostępnością do usług dla ogółu i przesunięciem środka ciężkości rozwiązania od tradycyjnych dostawców usług ICT  na pośredników oraz konsumentów końcowych

 

Idea SOKU jest naturalnym rozszerzeniem i kombinacją dotychczasowych koncepcji rozwijanych w ramach Web Services, technologii gridowych, Semantic Web, przetwarzania rozproszonego oraz samoorganizujących się systemów i bazuje na następujących założeniach:

–        Service Oriented – architektura zawiera usługi które mogą być tworzone dynamicznie, stąd struktura, zachowanie i umiejscowienie usługi może się zmieniać w czasie

–        Knowledge – usługi SOKU są zorientowane na wiedzę („semantyczne”), ułatwia to automatyzację usług oraz dostarczanie użytkownikom usług wysokiej jakości

–        Utility – jest bezpośrednio i natychmiast dostępną usługą z określoną funkcjonalnością i wydajnością

Te nowe podejścia do procesu wytwarzania systemów łączą w sobie cechy systemów sieciowych, webowych oraz semantycznych, jak również wymaga budowy specyficznej infrastruktury implementacyjnej umożliwiającej ich tworzenie, dostarczanie i korzystanie  z nich. Dlatego ich infrastruktura implementacyjna składa się z szeregu współdzielonych oraz współpracujących ze sobą elementów. Najważniejsze z nich to:

–        Zasoby fizyczne (różnorodny sprzęt zapewniający przetwarzanie informacji, jej przechowywanie oraz przesyłanie )

–        Zasoby informacyjne (dane zawarte w bazach danych, hurtowniach danych, systemach  ekspertowych, itp.)

–        Usługi reprezentowane przez dostępne pakiety programowe, aplikacje i inne składowe systemu

–        Mechanizmy zarządzania zasobami, zadaniami, itp.

 

Innym ważnym problemem który pojawia się we współczesnych systemach jest ich wydajność, rozumiana zarówno jako wydajność wykorzystywanych komputerów jak łączy komunikacyjnych. Rozpatrywanie wydajności systemu nie może być pozostawione dopiero na etap testowania rozwiązania. Już w trakcie projektowania architektury należy zdobyć i zastosować wiedzę na temat oczekiwań względem niej. Oczekiwania te można podzielić na oczekiwania biznesowe, aplikacyjne oraz niefunkcjonalne. Oczekiwania biznesowe oznaczają przykładowo izolację (odseparowanie) procesu od usługi, zwiększenie widzialności operacyjnej, zwiększenie elastyczności biznesowej. Oczekiwania aplikacyjne, to zestaw wymagań otrzymywanych od projektantów aplikacji lub serwisu. Natomiast do wymagań niefunkcjonalnych zaliczamy wymagania takie jak zarządzalność usług, bezpieczeństwo, wydajność, skalowalność oraz wymagania ogólne, przykładowo związane z realizacją interfejsu użytkownika.

 

  1. Future for European Grids: GRIDs and Service Oriented Knowledge, Utilities Vision and Research Directions 2010 and Beyond, Next Generation GRIDs Expert Group Report 3 January 2006
  2. “A New Service-Oriented Architecture (SOA) Maturity model”, Sonic Software Corporation, AmberPoint Inc.,BearingPoint, Inc., Systinet Corporationhttp://www.psclistens.com/enTouchCMS/FileUplFolder/soa_maturity_model.pdf

 

 

3.  Rozwój usług sieciowych

Leszek Borzemski

Politechnika Wrocławska

 

Technologie informacyjne i komunikacyjne (I&CT) są istotnym katalizatorem i stymulatorem wzrostu gospodarczego i społecznego. Ich rozwój przyczynia się do przybliżenia nas do społeczeństwa informacyjnego, w którym dysponować będziemy nowoczesną siecią telekomunikacyjną obejmującą swoim zasięgiem wszystkich obywateli oraz rozbudowanymi i dostępnymi dla wszystkich za pomocą usług sieciowych zasobami informacyjnymi oraz rozwiązaniami wspomagającymi transparentnie dla użytkownika jego potrzeby komunikacyjne i obliczeniowe. W społeczeństwie informacyjnym środki i metody przetwarzania informacji i komunikowania, są podstawą tworzenia dochodu narodowego i dostarczają źródła utrzymania większości społeczeństwa.

 

Aktualne kierunki rozwoju społeczeństwa informacyjnego dotyczą zintensyfikowania rozwoju sieci teleinformatycznej Internet jako środka komunikacji obywatelskiej i informacji publicznej, upowszechniania dostępu do informacji, udoskonalania procesów informacyjnych, komunikacyjnych oraz edukacyjnych celem uzyskania jak najszerszego stosowania I&CT. W miarę jak stosowanie I&CT stanie się coraz powszechniejsze, rośnie również wpływ tych technologii na społeczeństwo, polepszając jakość usług publicznych i czyniąc je mniej kosztownymi i bardziej dostępnymi; polepszając jakość życia. Usługi i treści oparte na I&CT stanowią podstawowy element społeczeństwa opartego na wiedzy.

Niewątpliwie to Internet (wraz z jego architekturą komunikacyjną i stosem protokołów TCP/IP) stał się najpoważniejszym środowiskiem rozwojowym wszelkiego rodzaju usług sieciowych. Jest on z jednej strony źródłem, katalizatorem oraz stymulatorem nowych usług oraz paradygmatów rozwoju systemów informatycznych mających świadczyć te usługi. Z drugiej strony, jest środowiskiem wdrażania ich archetypowych rozwiązań, w którym one przeżywają – i dalej się rozwijają, bądź nie przeżywają – i są „gwiazdami” jednego tylko sezonu.

 

W efektywnej budowie społeczeństwa informacyjnego niezbędne jest wykorzystanie innowacyjnych paradygmatów architekturalnych tworzenia systemów informatycznych, stawiających nacisk na definiowanie usług, które spełnią wymagania użytkownika. Do nich należy architektura zorientowana na usługi – SOA (Service Oriented Architecture). Ten paradygmat architekturalny kreuje nową jakość usług sieciowych i pozwala w sposób elastyczny tworzyć wieloplatformowe rozwiązania informatyczne, w tym o charakterze rozproszonym i funkcjonujące w sieciach komputerowych, mogące funkcjonować w sposób zintegrowany, niezależnie od platform i implementacji ich komponentów. Pojęcie SOA obejmuje zestaw metod organizacyjnych i technicznych mający na celu lepsze powiązanie biznesowej strony organizacji z jej zasobami informatycznymi. SOA należy rozumieć szeroko, bowiem dotyczy ona wielu poziomów abstrakcji projektowanego systemu, począwszy od poziomu biznesowego, a skończywszy na poziomie rozwiązań technicznych sieci komputerowych. Usługą jest tu każdy element oprogramowania, mogący działać niezależnie od innych oraz posiadający wyspecyfikowany interfejs, za pomocą, którego udostępnia realizowane funkcje. Algorytm działania usługi jest zdefiniowany przez interfejs skrywający szczegóły implementacyjne, które są nieistotne z punktu widzenia procesów klienckich korzystających z usług. Interfejsy usług są definiowane w sposób abstrakcyjny i niezależny od platformy implementacyjnej. Usługi są udostępniane za pomocą niezależnego protokołu komunikacyjnego.

 

 

Część II. WYBRANE PROBLEMY TECHNICZNE BUDOWY INFRASTRUKTURY INFORMACYJNEJ I KOMUNIKACYJNEJ

 

4.  Rozwój optycznych sieci dostępowych

Wojciech Kabaciński, Janusz Kleban, Mariusz Żal

Politechnika Poznańska

 

Gwałtowny rozwój Internetu oraz sieciowych usług multimedialnych prowadzi do wzrostu zapotrzebowania na dużą szybkość transmisji zarówno w sieciach szkieletowych, jak i w sieciach doprowadzających sygnał do użytkowników końcowych, nazywanych sieciami dostępowymi. Istniejąca infrastruktura sieci dostępowych, projektowana dla usług głosowych oraz prostych usług multimedialnych, nie spełnia wymagań, jakie nakładają na sieci nowoczesne usługi multimedialne oraz telewizja HDTV. Poza tym w każdym domu znacząco wzrasta liczba komputerów i innych urządzeń korzystających z usług sieciowych.

 

Rozwój sprzętu komputerowego wychodzi na przeciw zapotrzebowaniom nowoczesnych usług, które wymagają transmisji danych z prędkościami mierzonymi w Gb/s. W takim otoczeniu coraz większy nacisk kładzie się na rozwój optycznych sieci dostępowych, które oferują duże szybkości transmisji (na poziomie 2,5 Gb/s) oraz transmisję bez regeneracji na większe odległości niż w przypadku sygnałów elektrycznych. Przedstawiono rozwiązania stosowane w optycznych sieciach dostępowych. Szczególną uwagę zwrócono na rozwiązania stosowane w sieciach PON oraz na możliwości realizacji systemów FTTx. Przedstawiono również rozwiązania przyszłościowe takie jak SPON oraz sieci wykorzystujące ROADM.

 

Pierwsza generacja optycznych sieci dostępowych opierała się głównie na połączeniach typu punkt-punkt. Szybki rozwój systemów DWDM, a także UWDM (ang. Ultra WDM) pozwala na optymalne wykorzystanie pasma pojedynczego włókna światłowodowego. Operatorzy mają obecnie możliwość jednoczesnej transmisji w jednym włóknie kilkuset (DWDM) długości fal optycznych, czyli kanałów (każdy o przepustowości 2,5 Gb/s lub 10 Gb/s), a w przyszłości nawet kilka tysięcy kanałów (UWDM). Techniki te implementowane bardzo szybko w sieciach szkieletowych wymuszają rozwój optycznych sieci dostępowych w kierunku obejmowania coraz większego obszaru i wprowadzania urządzeń aktywnych takich jak OXC i ROADM, które potrafią dokonać komutacji sygnałów optycznych. Obecnie techniki te są jeszcze stosunkowo drogie, ale ich wdrożenie w dalszej perspektywie czasowej staje się nieuniknione, choćby ze względu na coraz większą popularność telewizji HDTV.

 

 

5.  Budowa struktur gridowych – sieci współdziałających komputerów i agregacji zasobów w strukturach organizacyjnych

Jan Kwiatkowski, Marcin Pawlik

Politechnika Wrocławska, Wydział Informatyki i Zarządzania

 

Wzrost szybkości działania sieci komputerowych oraz dostępność do komputerów osobistych daje możliwość zwiększenia dostępnej mocy obliczeniowej. Klastry i gridy, do niedawna dostępne tylko w Centrach Superkomputerowych można aktualnie spotkać w wielu firmach. W pracy przedstawiono krótki przegląd współcześnie dostępnych środowisk przetwarzania średniej i dużej skali opartych głównie na strukturach gridowych. Umożliwiają one w stosunkowo prosty i niedrogi sposób wykorzystać obliczenia równoległe, które nabrały w ostatnim czasie dużego znaczenia dając możliwość rozwiązywania problemów niemożliwych do rozwiązania z wykorzystaniem klasycznych systemów jednoprocesorowych.  W pracy porównano trzy aktualnie stosowane systemy: klastry obliczeniowe, systemy gridowe oraz systemy chmur obliczeniowych [1,2,4]. Pokazano jak w prosty, nie wymagający dodatkowych inwestycji sposób można zbudować klaster obliczeniowy, który może być wykorzystywany dla różnych celów.

Ewolucja architektur systemów przetwarzania zaowocowała powstaniem całej rodziny różnorodnych rozwiązań informatycznych. Szybki rozwój i zachodzące z każdym dniem zmiany uniemożliwiają opracowanie dokładnej taksonomii. Poszczególne systemy czerpią od siebie wzajemnie idee i rozwiązania. System zbudowany na zasadzie chmury obliczeniowej (ang. „cloud”) może wykorzystywać paradygmaty SOA/SOKU, cechować się możliwościami systemu gridowego, korzystać z heterogenicznych zasobów i realizować model „oprogramowania jako usługi” (ang. „SaaS – software as a service”). Tak zaawansowane systemy nie doczekały się jeszcze opracowania, zaś większość istniejących rozwiązań scharakteryzować można poprzez wybór jednej klasy, do której należą.

Cumulus – Wydziałowy Grid badawczy Wydziału Informatyki i Zarządzania Politechniki Wrocławskiej został uruchomiony w roku 2005. Początkowo grid został zbudowany jako instalacja składająca się z dwóch klastrów zlokalizowanych w dwóch różnych laboratoriach dydaktycznych Wydziału Informatyki i Zarządzania Politechniki Wrocławskiej [3]. Klastry były uruchamiane w czasie zajęć dydaktycznych na których były wykorzystywane oraz w godzinach nocnych gdy nie odbywały się zajęcia dydaktyczne. Pierwszy klaster składał się z 14 dynamicznych węzłów roboczych natomiast drugi z 40 roboczych węzłów dynamicznych oraz dwóch węzłów testowych, tzw. węzły dedykowane pracujące cały czas. Oba klastry kontrolowane są przez odpowiednie serwery, pracujące pod kontrolą autorskiego systemu zbudowanego na bazie systemu operacyjnego Linux Debian, zarządcy zasobów Torque, zarządcy zadań Maui, systemu Globus Toolkit i monitora systemu Ganglia. Dodatkowo w gridzie wykorzystywany jest również serwer backupu. Następnie rozbudowano grid o dodatkowy klaster testowy składający się tylko z dwóch węzłów dedykowanych. Klaster ten funkcjonował cały czas i przeznaczony był dla testowania opracowywanych aplikacji.

clip_image006

 

 

 

Rys. 2.  Architektura Wydziałowego Gridu Cumulus

 

Powyższa konfiguracja w miarę upływu czasu ulegała zmianom ze względu na uszkodzenia sprzętu  oraz zmiany konfiguracji sieci Wydziałowej, jednakże rdzeń pozostał bez zmiany (zmiany związane były głównie z liczbą dostępnych węzłów dynamicznych oraz dedykowanych). Aktualnie w różnych okresach czasu uruchamiane są pojedyncze klastry lub cały grid w zależności od potrzeb. Grid był dotychczas wykorzystywany dla następujących celów: badania w ramach projektu szóstego programu ramowego „Dependability of Distributed Systems” – DeDiSys, badania w ramach ogólnopolskiego programu badawczego „Clusterix  – National Cluster of Linux Systems” (grant 6T11 2003C/06098) – służył do badań nad klastrami dynamicznymi, jednodniowych szkoleń w ramach programu Clusterix dotyczących problematyki podłączania klastrów dynamicznych. Wykorzystywany był również dla potrzeb  grantu badawczego ETD finansowanego z środków projektu HPC-Europa Unii Europejskiej, na zajęciach dla studentów w ramach przedmiotów:  ,,Środowiska Przetwarzania Równoległego i Rozproszonego”, „Wprowadzenie do przetwarzania rozproszonego i równoległego” oraz na studiach po angielsku „ Parallel and Distributed Systems”, jak również do realizacji prac dyplomowych, w tym również przez studentów studiujących w ramach programu SOCRATES/ERASMUS oraz realizacji prac doktorskich

  1. M. Baker, Cluster Computing White Paper, 2000, University of Portsmouth
  2. C. Kesselman, I. Foster (ed.), The Grid: Blueprint for a New Computing Infrastructure, 1998 Morgan Kaufmann Publishers
  3. J. Kwiatkowski, M. Pawlik, G. Frankowski, R. Wyrzykowski, K. Karczewski, Attaching dynamic clusters to CLUSTERIX Grid. 2006, Proc. Cracow ’06 Grid Workshop.
  4. I. Foster, There’s Grid in them thar Clouds, Ian Foster’s blog http://ianfoster.typepad.com/blog/2008/01/theres-grid-in.html, 2008

 

6.  Konsolidacja serwerów i wirtualna integracja zasobów danych

Piotr Harasimowicz, Michał Małka

Vector On – Line – Poznań, DNS Polska – Kraków

 

Infrastruktura IT służy organizacjom do świadczenia szerokiego zakresu usług, które, aby zachować konkurencyjność, muszą być nieustannie rozwijanie. W związku z tym, organizacje zobligowane są do zwiększania mocy obliczeniowej i uruchamiania nowych serwerów, na których pracować będą nowe usługi. Sytuacja, w której organizacje zmuszone są do ciągłego wzrostu ilości serwerów fizycznych, prowadzi do pojawiania się typowych trudności. Bez wątpienia dodanie nowych serwerów fizycznych do istniejącej infrastruktury, poza kosztem samych maszyn, generuje powiększenie kosztów związanych z zasilaniem, chłodzeniem, utrzymaniem i administracją infrastruktury.        Często stosowaną praktyką jest przydzielanie pojedynczego serwera fizycznego do obsługi pojedynczej aplikacji. Wyskalowanie go w sposób, który uchroni zainstalowaną aplikację przed ewentualnymi wzrostami obciążenia doprowadza do sytuacji, w której na przykład zasoby samego procesora wykorzystane są na poziomie 10%. Sprawia to, że zwrot z takiej inwestycji, często wypada niekorzystnie. Kolejnymi trudnościami bez wątpienia staje się administracja coraz większą liczbą serwerów fizycznych, przez co pracownicy departamentów IT swój czas poświęcają na zadania związane z ich utrzymaniem, zamiast na strategiczne projekty, które zwiększają jakość usług a co za tym idzie maksymalizują zyski organizacji.

Odpowiedzią na wyzwania związane ze wzrostem ilości serwerów i niewykorzystaniem ich możliwości sprzętowych są rozwiązania wirtualizacyjne.      Technologia wirtualizacji pozwala na instalację systemu operacyjnego i aplikacji w serwerze wirtualnym, których to następnie duża ilość może pracować na pojedynczym, fizycznym serwerze x86. Dzięki temu wartość współczynnika konsolidacji przekracza 10 maszyn wirtualnych na jeden procesor fizyczny. Każde obciążenie, które kiedyś wymagało dedykowanego serwera fizycznego oraz znacznego nakładu pracy administracyjnej, przy pomocy tej technologii, w łatwy sposób może być umieszczone na maszynie wirtualnej. Istniejący na rynku producenci oprogramowania do wirtualizacji, dostarczają szereg narzędzi i technologii do jeszcze lepszego wykorzystania zasobów informatycznych. Możliwe jest połączenie wielu rożnych fizycznych serwerów x86 w zdefiniowaną grupę serwerów (klaster), która obejmuje ich procesory, pamięć operacyjną i zasoby dyskowe. Maszyny wirtualne są wtedy przypisane do grupy, a nie do pojedynczego serwera, co sprawia, że odpowiednie narzędzia potrafią utrzymywać równowagę obciążeń pojedynczych serwerów wchodzących w skład grupy według wcześniej zdefiniowanych reguł. Kolejne mechanizmy służą między innymi do migracji pracujących maszyn wirtualnych między serwerami fizycznymi w celu zapewnienia ustalonego poziomu usług, w momencie, gdy obciążenie maszyny wzrasta. Możliwe jest również nie tylko budowanie klastrów wydajnościowych, ale także klastrów wysokiej dostępności (HA). A podczas gdy wiele maszyn wirtualnych pracuje w zdefiniowanej grupie serwerów, wykorzystanie dostępnych zasobów procesorowych przekracza poziom 70% co zwiększa zwrot z inwestycji zakupionych serwerów fizycznych.

 

Wirtualizacja serwerów to obecnie już nie tylko trend, a pewnego rodzaju standard. Rośnie liczba organizacji, które już wdrożyły rozwiązania wirtualizacyjne, zapewniając skuteczną konsolidację i hermetyzację serwerów fizycznych, dzięki czemu już zdecydowanie obniżyły koszty posiadania i eksploatacji zasobów IT, usprawniły zarządzanie, zwiększyły poziom utylizacji sprzętu i przede wszystkim odpowiednio przygotowały się na wzrost.

 

 

7.  Udostępnianie serwerów obliczeniowych w badaniach naukowych i technicznych

Józef Janyszek, Agnieszka Kwiecień

Politechnika Wrocławska

 

Komputerowe wspomaganie badań naukowych jest współcześnie realizowane na wielu etapach pracy badawczej i dotyczy różnych jej aspektów. Zdarza się, że podczas przeprowadzania eksperymentów w tradycyjnych laboratoriach badacz napotyka na liczne trudności związane z dokładnym śledzeniem zachodzących procesów. Dlatego duża część badań przeprowadzana jest obecnie z wykorzystaniem symulacji komputerowych, zanim zespół badawczy przystąpi do pracy eksperymentalnej. Konstruowane są modele komputerowe badanych obiektów i na nich wykonuje się pierwsze testy i analizy. Do przeprowadzania takich symulacji konieczne jest korzystanie z infrastruktury HPC (High Performance Computing).

 

Rozwój technologii komputerowych i sieciowych w ostatnich latach pozwolił na osiągnięcie wydajności komputera rzędu 1 PetaFlop/s. Superkomputery ostatnich lat często bazują na rozwiązaniach i technologiach klastrowych, zaś klastry, przez stosowanie coraz szybszych sieci połączeń i dedykowanych rozwiązań, stają się podobne do superkomputerów. Sieci gridowe rozwijają się równie dynamicznie. Rozwiązywanie niektórych problemów jest możliwe z wykorzystaniem silnie rozproszonych struktur, jakimi są gridy, część problemów wymaga jednak dostępu do superkomputerów o architekturze SMP (Symmetric Multiprocessing) i NUMA (Non-Uniform Memory Access). Budowane są także superkomputery o architekturze specyficznej, projektowanej pod kątem rozwiązywania konkretnego problemu lub klasy problemów (np. oparte o programowalne układy FPGA, czy VLSI).

 

Wychodząc naprzeciw powyższym wyzwaniom realizowany jest aktualnie projekt PL‑Grid, jego celem jest dostarczenie polskiemu środowisku naukowemu usług gridowych, pozwalających na realizację w ramach programów określanych mianem  e‑Science wykorzystania zaawansowanych technologii informatycznych do badań naukowych w takich dziedzinach jak:  fizyka, astronomia, chemia, biologia, meteorologia, medycyna i inne. Cel główny projektu zostanie osiągnięty poprzez następujące działania:

–        budowę infrastruktury produkcyjnej i, po jej uruchomieniu, bieżące zarządzanie polskim gridem,

–        umożliwienie działania gridów dziedzinowych,

–        dostosowanie gridu do wymagań użytkowników,

–        testowanie i instalacja oprogramowania aplikacyjnego,

–        zapewnienie wsparcia użytkownikom gridu.

 

Budowana polska infrastruktura gridowa będzie „kompatybilna” i „interoperacyjna” z gridem europejskim i światowym, i podejście to do udostępniania usług obliczeniowych (skoordynowane i spójne)  jest jednym z elementów, które może podnieść konkurencyjność polskich badań naukowych.

 

 

8.  Koordynacja partnerstwa  w wirtualnych systemach informacji przedmiotowej

Piotr Tarłowski

Konsorcjum Sieci Laboratoriów WOD: Łódź-Olsztyn-Polkowice-Poznań,

Politechnika Poznańska i Wyższa Szkoła Informatyki w Łodzi

 

Wspólne przestrzenie informacyjne systemów wirtualnej organizacji działań – WOD i konkretne wirtualne sieci zasobów danych cyfrowych – D i wiedzy przedmiotowej – WP: e-SD&WP kształtują metody wymiany plików inspirowane zastosowaniami architektury P2P do integracji zasobów. Wspólne przestrzenie informacyjne budowane są w infrastrukturze sieciowo konsolidowanych, rozproszonych serwerów i sieciowej integracji zasobów cyfrowych. Pojawiają się „gridowe” środowiska usług infrastruktury informacyjno-komunikacyjnej, struktury P2P partnerskich zasobów cyfrowych. Przykładem może być  infrastruktura informacyjna i komunikacyjna Sieci laboratoriów WOD. Chodzi o organizację wymiany danych konsolidującą procedury tworzenia i wymiany dokumentów źródłowych w schematach WP poszczególnych partnerów WOD.

 

Problemowo zorientowane systemy integracji danych i pozyskiwania informacji, których zasobami są odpowiednio strukturalizowane zasoby D i WP, kształtują struktury infosfery KsBO-MSI.

 

Zasoby D to dokumenty informacji prymarnej (dokumenty źródłowe)  w postaci plików komputerowych. Sposoby tworzenia zasobów D określają technologie digitalizacji, sieciowego gromadzenia i obiegu dokumentów (skanowanie, indeksowanie, przechowywanie, odtwarzanie i archiwizacja).

 

Struktura zasobów WP wynika z rozumienia wiedzy jako interpretacji  zasobów D i reprezentowania tej interpretacji jako wiedzy wykorzystywanej i generowanej w procesach myślowo-decyzyjnych człowieka. WP jest więc pojęciem funkcjonalnym, a zasoby WP to nie tylko technologie gromadzenia zasobów D i dostęp do problemowo zorientowanej informacji (dokumenty pozyskiwane z zasobów D), lecz także stan umysłu człowieka (stan wynikający z interpretacji zasobów D), zestawiane w schemat WP (modelach skojarzeniowych), tworzonych przez człowieka (human factors technologii WOD).

 

Sieci te to wspólna przestrzeń informacyjna – wirtualne środowisko informacji – potrzebne w kształtowaniu struktur cyfrowej organizacji działań. Wspólna przestrzeń informacyjna kształtowana jest przez gridowe środowisko aplikacji sieciowej integracji zasobów D i  pozyskiwania WP. Mówimy o wirtualnych systemach informacji przedmiotowej (osobowej, zespołowej itd.), wykorzystywanych dla koordynacji partnerstwa i działań kooperacyjnych w pojawiających się strukturach cyfrowej organizacji działań społeczeństwa informacyjnego.

 

Architektura P2P udostępnia rozproszone mechanizmy wymiany, wynikające ze znaczenia partnerstwa, m.in. tzw. sąsiedztwa, czy znajomości. W architekturze P2P nie istnieje schemat globalnego opisu zasobów. Grupy partnerów mogą tworzyć sieci – wirtualne systemy informacji przedmiotowej (osobowej, zespołowej itd.) – dla rozwiązywania różnorodnych zadań, z koordynacją partnerstwa i działań kooperacyjnych w różnorodnych strukturach cyfrowej organizacji działań. W architekturze P2P partnerzy wymieniają między sobą polecenia, realizują te polecenia, a serwery pełnią rolę centralnych katalogów i wspomagania wyszukiwania zapotrzebowań informacyjnych partnerów. Zasada działania sieci polega na tym, że wszyscy partnerzy włączani są w proces wymiany plików. Zwykle plik dzielony jest na fragmenty stanowiące jednostki wymiany. Niezbędna jest kontrola autentyczności fragmentów. W architekturze P2P odwzorowywane są procesy wymiany danych. P2P składa się z otwartej sieci rozproszonych aplikacji sieciowych partnerów (ang. peer), gdzie każda aplikacja może wymieniać dane i usługi ze zbiorem innych aplikacji, tworzących zbiór jego znajomych (ang. acquaintances). Zakłada się, że aplikacje są w pełni autonomiczne w wyborze swoich znajomych. Ponadto zakłada się, że nie ma kontroli w formie globalnych rejestrów, usług, ani globalnego zarządzania zasobami. Dane pamiętane w różnych bazach danych mogą mieć współzależność (semantyczną). Związki te mogą być wyrażane za pomocą formuł koordynacyjnych określających sposób powiązań aplikacji z jego znajomymi. Formuły koordynacyjne wymuszają spójność danych i propagację uaktualnień. Dodatkowo aplikacje wymagają znajomości protokołu wymiany i ustalenia poziomu koordynacji między nimi. Poziom koordynacji powinien być dynamiczny, co oznacza, że zestaw formuł koordynacyjnych może się zmieniać w zależności od tego, czy powiązania między parami są luźne, zacieśniają się, czy są w ogóle likwidowane (z powodu zmiany zainteresowań i zadań poszczególnych aplikacji). Przy tak dynamicznych zmianach nie można przyjąć istnienia globalnego schematu dla wszystkich zasobów danych w sieci P2P, a nawet dla wszystkich znajomych zasobów danych. Co więcej, zmiany te oznaczają, że partnerzy powinni mieć możliwość wzajemnej integracji przy minimalnej interwencji człowieka. Mamy więc do czynienia ze środowiskiem dynamicznym i rozszerzalnym. Partnerzy mogą wchodzić i wychodzić z systemu. Partner wchodząc do systemu wnosi swoje dane, swoje schematy oraz odwzorowania między schematami swoimi i swoich partnerów. W ten sposób dynamicznie kształtuje się sieć na różne sposoby powiązanych ze sobą systemów współpracujących w procesach integracji i wymiany danych. Wymiana danych między partnerami wiąże się z problemami koordynacji tej wymiany oraz integracji danych w procesie wymiany.

 

Różnorodne systemy WOD łączą, poprzez środowisko informacyjne, funkcje i zadania partnerów współdziałania. Inaczej niż dotąd – w tradycyjnych zastosowaniach komputerów i sieci komputerowych – trzeba spojrzeć m.in. na kwestie strukturalizacji środowiska informacyjnego współdziałania, ponieważ współdziałanie odwzorowywane jest w sieciowo gromadzonych zasobach danych cyfrowych D, uwzględniających różne sposoby dostępu do danych i ich interpretacji jako odpowiednich kategorii wiedzy przedmiotowej – WP.

 

Punktem wyjścia budowy różnorodnych e-SD&WP jest strukturalizacja sieciowego gromadzenia danych cyfrowych, a także synteza usług koordynacji ich wymiany. Rezultatem jest ustanawianie partnerstwa we współdziałaniu, które wynika z ustalenia reguł koordynacji współdzielenia partnerskich zasobów danych cyfrowych (peer digital data resources).

 

Podczas tworzenia warunków partnerstwa w środowisku wirtualnych systemów informacji przedmiotowej napotykamy na kilka problemów, które należy rozwiązać. Pierwszym z jakim mamy tutaj do czynienia jest tworzenie mechanizmu zarządzania informacją w oparciu o syntezę reguł partnerstwa. Reguły partnerstwa ustalają zasady, bądź współpracy ludzi w rozwiązywaniu ustalonych zadań, bądź współdziałania organizacji (rozwiązywanie wielozadaniowych problemów).

 

Reguły współdziałania wirtualnych systemów informacji przedmiotowej zakładają że zbiór wszystkich danych w sieci P2P składa się z lokalnych (relacyjnych) baz danych. Każda z baz zawiera zbiór znajomych, który definiuje topologię sieci P2P. Między każdą parą partnerów definiowane są odwzorowania pozwalające na transformację danych, przy czym odwzorowania te powinny być odkrywane automatycznie na podstawie dostępnych metadanych, takich jak schematy czy ontologie. Bardziej złożone zależności semantyczne między danymi w różnych bazach danych mogą być definiowane za pomocą tzw. formuł koordynacyjnych. Formuły koordynacyjne mogą być użyte na dwa sposoby. Po pierwsze, do definiowania ograniczeń, które muszą zostać spełnione przez zbiór relacji. Po drugie, formuły koordynacyjne mogą być użyte do tworzenia zapytań.

 

Nie mniej ważnym problemem w wirtualnych systemach informacji przedmiotowej jest utrzymywanie wirtualnego środowiska informacji, a w szczególności struktur wirtualnych sieci danych cyfrowych i wiedzy  przedmiotowej w procesach koordynacji przepływu informacji we wzajemnej (interaktywnej) wymianie partnerskich zasobów danych. Do rozwiązania tych problemów możemy korzystać z algorytmów zarządzania, takich jak np. Pastry, EpiChord i in.

 

Jednym z poważniejszych problemów z jakimi się spotykamy w procesach koordynacji przepływu informacji jest wiele jednoczesnych zmian (przyłączeń i odłączeń) różnych węzłów sieci.

 

Dla zapewnienia niezawodności sieci, węzły sąsiadujące wymagają uaktualnień z węzłami dołączanych lub opuszczających sieć.  Jeżeli  tablica tras węzła straci dokładność, wzrośnie opóźnienie systemu spowodowane wysyłaniem wiadomości do nieistniejącego węzła. Jeżeli  zjawisko to będzie dalej wzrastać, sieć zacznie się dzielić, znacznie obniży się wydajność i jakość sieci. Mechanizmy utrzymania sieci wymagają skutecznych metod znajdowania nieaktualnych wpisów w tablicach tras i zamiany ich na aktualne.

 

Ponieważ wyszukiwanie zapytań w sieci i utrzymanie ruchu sieci leżą u podstawy przepustowości łącza, to utrzymanie ruchu powinno zostać ograniczone tylko do tego, co jest ściśle potrzebne do posiadania precyzyjnej tablicy tras. Intuicyjnie, utrzymanie ruchu przez węzeł powinno być proporcjonalne do tempa zmian jego sąsiadów. Dlatego algorytmy utrzymania powinny być skonstruowane w taki sposób, by zawierać skuteczne mechanizmy radzące sobie z tak dynamicznymi zmianami.

 

1. Tarłowski P., Pankowski T., Koordynacja wymiany danych w środowisku P2P, Rozdział w książce pt. Bazy Danych – Struktury, Algorytmy, Metody; Wydawnictwo Komunikacji i Łączności, Warszawa 2006, s. 37-45.

2. Kierzkowski Z., N’Sir M., Talaga Z., Tarłowski P., Współdziałanie i nauczanie w przemianach strukturalnych społeczeństwa informacyjnego, Biuletyn Organizacyjny i Naukowo-Techniczny Stowarzyszenia Elektryków Polskich – Artykuły naukowe i techniczne, wrzesień (9) 2007; s. X-XII.

3. Tarłowski P., Koordynacja partnerstwa w środowisku informacyjnym współdziałania, XI Seminarium problemowe WOD: Technologie i kultura współdziałania w społeczeństwie informacyjnym, Sesja problemowa: Budowa wirtualnego środowiska informacji – temat główny, Polkowice 15-16 listopada 2007, Towarzystwo Naukowe Prakseologii – Sieć Laboratoriów WOD, Wydawnictwo SORUS, Warszawa-Łódź-Olsztyn-Polkowice-Poznań 2007, Plan-Tematyka-Tezy (opracowanie: Z.Kierzkowski), s. 15.

 

 

Część III. UPOWSZECHNIANIE USŁUG TECHNOLOGII INFORMACYJNYCH I KOMUNIUKACYJNYCH

 

 

9.   Analiza poziomu rozwoju społeczeństwa informacyjnego w Polsce

Zbigniew Kierzkowski

Konsorcjum Sieci Laboratoriów WOD: Łódź-Olsztyn-Polkowice-Poznań,

Wyższa Szkoła Informatyki w Łodzi

 

Do głównych czynników rozwoju technologii społeczeństwa informacyjnego – IST i stanowienia jego struktur należą:

–        globalizacja informacyjna działań, a więc rozwój infrastruktury i usług I&CT, będące wynikiem: (1) wirtualnych sposobów organizowania, (2) wzajemnej wymiany danych – D i wiedzy przedmiotowej – WP,

–        globalizacja organizacyjna i gospodarcza, będące konsekwencją: (3) organizacyjnej integracji  (wirtualnej) przedsiębiorstw, (4) integralności gospodarczej współdziałania, w  elastycznych, uczących się struktur organizacji wirtualnych,

–        przemiany kulturowe, społeczne i polityczne, wynikające z nowych sposobów pracy ludzi, będące wynikiem: (5) narastającej roli zasobów danych – D  i wiedzy przedmiotowej – WP w przemianach organizacji działań, udziału usług I&CT w PKB, (6) konsekwencji podmiotowego udziału ludzi w strukturach społeczeństwa (cyfrowej organizacji działań).

 

clip_image007

 

 

 

Główne składowe rozwoju technologii społeczeństwa informacyjnego

 

Poziom penetracji gospodarki przez I&CT uważany jest obecnie za jedną z miar rozwoju ekonomicznego oraz stopnia zaawansowania społeczeństwa informacyjnego. Metodologia pomiaru nasycenia gospodarek nowymi technologiami jest zróżnicowana. W makroskali obraz kształtowany może być w oparciu o zagregowane wskaźniki opracowane dla ONZ, WEF (World Economic Forum) bądź OECD (Organisation for Economic Co-operation and Development). Obejmują one zazwyczaj składowe ilościowe i jakościowe; oprócz nasycenia gospodarki I&CT ukazują przystępność cenową, stan infrastruktury, potencjał zasobów ludzkich, czy też klimat prawny dla upowszechniania technologii. Mamy tu metodologie: DOI – Digital Opportunity Index  (World Summit Information Society – WSIS – ONZ) oraz NRI – Network Readiness Index (WEF). Rozpowszechnienie I&CT na poziomie krajowym mierzone jest na wiele sposobów. Z jednej strony statystyki publiczne oferują zestawy wskaźników ilościowych obrazujących posiadanie przez gospodarstwa domowe i instytucje komputerów, telefonów (stacjonarnych i komórkowych), dostępu do Internetu itp., z drugiej strony osiągalne są opracowania zawierające dane o dostępności, użytkowaniu, infrastrukturze i nasyceniu I&CT, sporządzane dla monitorowania międzynarodowych inicjatyw na rzecz rozwoju społeczeństwa informacyjnego (Programy e:Europe 2005, iEurope 2010, Milenijne Cele Rozwoju ONZ).

 

Opracowana w 2005 roku przez agendy ONZ wraz z ITU (International Telecommunication Union) wskaźnik  DOI (szansy cyfrowej) określany jest jako jednolite narzędzie oceny rozwoju społeczeństwa informacyjnego na świecie. Metodologia jest jednym z efektów porozumienia – Partnership for the Measurement of ICTs for Development, zawartego w ramach WSIS (światowego szczytu społeczeństwa informacyjnego – WSIS: The World Summit  on The Information Society) – Tunis 2005. Podejście jest kontynuacją wskaźnika DAI (Digital Access Index), proponowanego dla WSIS w roku 2003 (Genewa). Nowością jest międzynarodowa standaryzacja wskaźników ilościowych, zdefiniowanych i zaakceptowanych w dokumencie szczytu. Jako wskaźnik zagregowany, DOI jest instrumentem makroekonomicznym umożliwiającym klasyfikację i porównywanie państw w różnych aspektach społeczeństwa informacyjnego. Podstawą jest pomiar poziomu rozpowszechnienia I&CT w gospodarce, wskazujący na zaawansowanie w rozwoju społeczeństwa informacyjnego. Dane podstawowe zostały sklasyfikowane za pomocą trzech pod indeksów, wskaźnik DOI jest ich średnią arytmetyczną:

–        szansa – by uczestniczyć w społeczeństwie informacyjnym konsumenci powinni mieć zapewniony dostęp do I&CT,  zarówno w kategorii pokrycia obszaru, jak i przystępności cenowej; kategorie te są opisane przez wskaźniki: procent populacji pokryty telefonią komórkową, koszt dostępu do Internetu jako procent dochodu per capita, wydatki na telefon komórkowy jako procent dochodu per capita,

–        infrastruktura – składa się z dwóch kategorii: sieci informacyjne – opisane przez wskaźniki takie jak: procent gospodarstw domowych ze stałymi liniami telefonicznymi na 100 mieszkańców, abonenci telefonii komórkowej na 100 mieszkańców, liczba gospodarstw domowych z dostępem do Internetu i liczba użytkowników bezprzewodowego Internetu na 100 mieszkańców; kategoria sprzęt, reprezentowana jest przez  liczbę gospodarstw domowych posiadających komputer,

–        wykorzystanie – opisywane przez dwie kategorie: zasięgu użytkowania I&CT –  widzianą jako procent liczby osób stosujących Internet oraz kategorię jakości obrazującą poziom możliwości funkcjonalnych infrastruktury; wskaźnikiem wybranym dla tej kategorii jest udział liczby abonentów Internetu szerokopasmowego w ogólnej liczbie abonentów Internetu.

 

Raport WSIS 2006 wyjaśnia jak za pomocą wskaźnika DOI mierzyć „szansę cyfrową” lub możliwości obywateli w zakresie dostępu do I&CT i ich użytkowania. Raport zawiera klasyfikację państw według DOI oraz indeksów składowych, dostarczając wglądu w tendencje rozpowszechniania I&CT w poszczególnych obszarach świata. Najwyżej pozycje w rankingu światowym zajmują Korea Pd. i Japonia oraz europejskie kraje nordyckie. Wysoki poziom DOI posiadają Kanada i USA zajmując miejsca w drugiej dziesiątce. Polska z 38 miejscem plasuje się poniżej średniej EU, wyższe pozycje zajmuje dwadzieścia państw Unii.

 

Technologie informacyjne i komunikacyjne pozostają poważną siłą stymulującą pozytywne zmiany w świecie. Teza ta znajduje uzasadnienie na stronach piątej edycji z cyklu The Global Information Technology Report 2005-2006. Dostrzegając dynamiczną ewolucję I&CT, ich rosnący wpływ na wzrost ekonomiczny autorzy raportu dostarczają obrazu globalnej panoramy użytkowania I&CT, wskazują pojawiające się możliwości i wyzwania z nimi związane. Istotą dokumentu jest światowy rankingu państw, uzyskany z zastosowaniem wskaźnika NRI (wskaźnika gotowości sieciowej). Wskaźnik postrzegany jako miara podsumowującą ogólny rozwój I&CT na danym obszarze, pozwala na porównanie stopnia zaawansowania w rozwoju społeczeństw informacyjnych. Wskaźnik NRI definiowany jest jako stopień przygotowania kraju lub społeczeństwa do partycypacji i czerpania korzyści z rozwoju technologii informacyjnych i komunikacyjnych. W zamyśle autorów obrazuje społeczny potencjał do udziału w świecie sieciowym (Networked Word) obecnie oraz w przyszłości. Wskaźnik umożliwia porównywanie dokonań społeczeństw w obszarze I&CT oraz weryfikację polityki państwa pod kątem jej skuteczności w tym zakresie. Profile poszczególnych państw zostały usystematyzowane z uwzględnieniem zdolności do działania w sieci rozumianej jako Networked Society – społeczeństwo sieciowe. Wybór 115 krajów objętych raportem wynika z możliwości uzyskania rzetelnych danych, objętych opracowaniami tworzonymi przez WEF. Raport zawiera także rankingi państw wg indeksów składowych (component idexes) oraz korespondujących z nimi pod indeksów, dostarczając dokładniejszych zestawień krajów z ukazaniem ich słabych i mocnych stron na każdym poziomie agregacji danych. Konstrukcja NRI jest zbudowana w oparciu o trzy przesłanki:

–        istnienia trzech głównych obszarów zainteresowań w zakresie rozwoju i użytkowania I&CT,  tj.: osoby indywidualne, biznes i administracja ,

–        istnienia środowiska makroekonomicznego i prawnego dla I&CT, w którym poszczególni reprezentanci ww. obszarów grają istotną rolę,

–        poziom zastosowania w poszczególnych obszarach jest powiązany z gotowością do użytkowania technologii I&CT i korzyściami uzyskiwanymi przez ich wdrożenie.

 

Wskaźnik NRI wyliczany jest jako średnia arytmetyczna z trzech indeksów składowych: środowisko – gotowość do stosowania I&CT i użytkowania technologii. Każdy indeks składowy został podzielony na trzy po indeksy. Do uzyskanych w ten sposób dziewięciu po indeksów zostały przypisane zmienne wydzielone z zestawu 51 danych opracowanych analitycznie. Pod uwagę wzięto dane ilościowe: pochodzące z badań własnych i dostępnych statystyk oraz dane przetworzone pochodzące z publikacji Banku Światowego, ITU oraz dane jakościowe: uzyskane z opracowania ponad 4500 odpowiedzi na ankiety rozesłane wśród menagerów i rządzących w 115 państwach w ramach projektu Executive Opinion Survay –GEOS, prowadzonego dla WEF. Wyniki rankingu są rezultatem przeliczeń pod indeksów z użyciem technik analizy czynników pierwszych (factor analysis). W efekcie średnia wartości poszczególnych wskaźników i po indeksów wynosi zero. W takim ujęciu państwa mające ujemne wartości NRI plasują się poniżej, a państwa z dodatnimi wartościami powyżej średniej wyników dla 115 krajów branych pod uwagę. Wynikowe wartości po indeksów zostały uśrednione w celu wyliczenia indeksów składowych, średnia arytmetyczna indeksów składowych to wskaźnik NRI.

 

Osiągane wielkości indeksu sygnalizują główne trendy, wskazują możliwości i zagrożenia, ukazują jak przedstawia się zaawansowanie poszczególnych narodów w dostępie do sieciowego świata (Networked World). Rezultaty rankingu NRI przynoszą pierwszą pozycję Stanom Zjednoczonym, które wyprzedzają nieznacznie Singapur. W pierwszej dziesiątce uplasowało się aż sześć państw europejskich; Korea Pd znalazła się na 16 miejscu. Pozycja Estonii (23) czyni z tego kraju lidera spośród krajów przyjętych do Unii w roku 2004; średnia państw UE wynosi NRI=0,64, wynik ten daje pozycję pomiędzy 26 a 27; poniżej średniej unijnej znalazły się Portugalia (27), Hiszpania (31), Czechy (32), Węgry (38), Włochy (42), Litwa (51). Polska (NRI = -0.09) zajmuje 53 pozycję co jest najgorszym wynikiem w UE, choć w porównaniu z poprzednią edycją raportu pozycja uległa poprawie o 24 miejsca. W Ameryce Południowej przewodzi Chile (29) zdecydowanie dystansując Brazylię (52) i Meksyk (55), wartość wskaźnika dla kontynentu wynosi NRI = -0,28. Średnia wartość NRI dla świata wynosi minus 0,31, najmniejsze wartości wskaźnika osiągane są w państwach afrykańskich (średnia Afryki NRI = -0,52), ranking zamyka Etiopia z NRI = -1,39.

 

Pozycja naszego kraju wynika przede wszystkim z bardzo niskich notowań w obszarach opisywanych pod indeksami: I.2 Środowisko polityczne i prawne (62), II.4 Gotowość w administracji (61) i III.9 Użytkowanie w administracji (90) Stosunkowo korzystny obraz nasz kraj uzyskuje w obszarach I.3 Środowisko infrastruktury (42), II.4 Gotowość w biznesie (39), III.7 Użytkowanie indywidualne (43). Poziom rozwoju społeczeństwa informacyjnego naszego kraju mierzony wskaźnikiem NRI jest stosunkowo niski, wśród konkluzji należy zauważyć braki w legislacji, a także determinacji rządu i administracji w zakresie wdrażania ICT.

 

Podsumowując przedstawiane dość szczegółowe streszczenie tego opracowania zauważmy, że nowoczesne technologie stwarzają jakościowo inne możliwości dostępu do informacji, zmieniają warunki podejmowania decyzji ekonomicznych, prowadzą do skracania tzw. czasu ekonomicznego, przyspieszają procesy biznesowe i kulturowe. Technologie I&CT uznawane są za podstawę nowego ładu ekonomicznego charakterystycznego dla społeczeństwa informacyjnego. Wskaźniki ilościowe i jakościowe (zarówno makro jak i mikroekonomiczne) obrazujące rozpowszechnienie technologii społeczeństwa informacyjnego – IST są obok analiz sektora informacyjnego w gospodarkach, pożądanym narzędziem do oceny i porównania stopnia zaawansowania w rozwoju postindustrialnego społeczeństwa informacyjnego.

 

Potrzeby parametryzacji i oceny rozwoju społeczeństwa informacyjnego w Polsce są oczywiste. Jednak wobec braku jednolitej definicji i kryteriów po wypełnieniu, których społeczeństwo staje się informacyjnym, można jedynie podejmować próby pokazania metodologii badania całościowego rozwoju społeczeństwa informacyjnego  na obszarze kraju. Pomocnym narzędziem są w tym przypadku omawiane wyżej wskaźniki: DOI i NRI oraz ich składowe obrazujące zaawansowanie w poszczególnych obszarach w kontekście technologicznym. Obraz Polski w zakresie budowy społeczeństwa informacyjnego na tle państw UE kształtowany jest także na bazie monitoringu realizacji programów eEurope 2005 oraz iEurope 2010. Dzięki niemu można śledzić zmiany i postęp w wybranych obszarach w skali państwa. Dla dopełnienia wizerunku i wskazania przyczyn dysproporcji konieczną jest uzyskanie obrazu zmiany w poziomu rozwoju, zarówno całości Kraju, jak i poszczególnych regionów, „w polskiej drodze do społeczeństwa informacyjnego”. Pewnych instrumentów dostarcza w tym przypadku program UNDERSAND 2005, obejmujący zasięgiem dziesięć wybranych regionów w Europie; jego uczestnikiem jest jeden z regionów RP. Koniecznym wydaje się określenie i zastosowanie jednolitych miar pozwalających sparametryzować rozwój społeczeństwa informacyjnego we wszystkich regionach kraju. Spojrzenie takie pozwali wskazać szanse i zagrożenia dla rozwoju regionów i dostarczy przesłanek do oceny adaptacji IST w czasie.

 

Uwaga: Tekst wystąpienia opracowano korzystając z analiz prowadzonych przy udziale Tadeusza Makulskiego (por. Kierzkowski Z., Makulski T., Analiza poziomu społeczeństwa informacyjnego i miejsce naszego Kraju, Międzynarodowa Konferencja Naukowa: Unia Europejska – Kto zyskał a kto traci?, Olsztyńska Wyższa Szkoła Informatyki i Zarządzania, Olsztyn 2004, s. 110-113 i dalsze opracowania prezentowane na Seminariach problemowych WOD w roku 2005 i 2007.

 

 

10.  Wirtualna organizacja procesów gospodarczych[1]

Lucyna Kwiatkowska

Konsorcjum Sieci Laboratoriów WOD: Łódź-Olsztyn-Polkowice-Poznań,

Olsztyńska Wyższa Szkoła Informatyki i Zarządzania

 

Poprawa efektywności funkcjonowania przedsiębiorstw poprzez zastosowanie koncepcji organizacji wirtualnej wymaga modelowych rozwiązań wskazujących na konieczność zmian w trzech wymiarach: organizacyjno – strukturalnym, kształtowania współdziałania oraz wdrożeń I&CT. Organizacja wirtualna postrzegana jest jako metoda organizacji działań, sposób rozwiązania problemów, dla poprawy wydajności i efektywności każdej organizacji rzeczywistej. Prezentowany model umożliwia analizowanie możliwości kreowania struktur wirtualnej integracji przedsiębiorstw,  przedstawia  założeń dla rozwoju różnych typów organizacji wirtualnej opierając się na założeniach efektywności alokacji zasobów, efektywności rynkowej poprzez wykorzystanie zagregowanych korzyści funkcjonowania na rynku, efektywności procesowej optymalizującej proces generowania wartości. Pozwala to weryfikować postępowanie przedsiębiorstw w środowisku „wirtualnych procesów gospodarczych”.  Organizacja wirtualna przedsiębiorstw nie jest wyłącznym skutkiem wpływu I&CT na kształtowanie powiązań gospodarczych, ale powstaje także w wyniku łączenia komplementarnych umiejętności kluczowych, czemu towarzyszą działania zmierzające do wzrostu stopnia integracji, z udziałem takich narzędzi koordynacji jak zaufanie, otwartość, jawność, wzajemność.  Przemieszczanie się w obrębie wymiarów modelu w poszukiwaniu wirtualnej formy (formy hybrydowej) odpowiedniej do sygnałów napływających z rynku inicjuje dynamiczne otoczenie i potrzeba osiągnięć gwarantujących szansę utrzymania pozycji konkurencyjnej w „globalnej  gospodarce”. Zaproponowany model znajduje szczególne zastosowanie w diagnozie przedsiębiorstw, które funkcjonują jako przedsiębiorstwa tradycyjne – w tym kontekście staje się on narzędziem obrazującym ich ewolucyjną ścieżkę rozwoju, polegającego na stopniowym wdrażaniu I&T i osiąganiu coraz większych możliwości wirtualizacji działań. Model stanowi platformę tworzenia form organizacyjnych, które różnią się stopniem sformalizowania związków – od luźnych połączeń, które wymagają realokacji praw własności (przesunięcie w kierunku autonomicznych podmiotów), po elektroniczną hierarchię z elementami wertykalnej integracji. Pojawiające się sposoby wirtualnej organizacji działań są wynikiem rozstrzygnięć między autonomią i swobodą, a współzależnością (rynek – hierarchia). Istniejąca dychotomia przejawia się z jednej strony wokół tworzenia elastycznych, zamiennych powiązań, które pozwolą na integrację, dobranych za pośrednictwem rynku, kluczowych kompetencji (hipoteza rynku elektronicznego), z drugiej strony pojawia się konieczność, aby miały one charakter powiązań już ukształtowanych i podtrzymywanych, po to, by w pełni wykorzystać rynkowe szanse i zgromadzone zasoby wiedzy (hipoteza środka).

 

Podstawową płaszczyznę rozważań nad fenomenem organizacji wirtualnej przedsiębiorstw stanowi nowa ekonomia instytucjonalna, która stwarza możliwość pogłębionej analizy współczesnej organizacji gospodarczej, traktując przedsiębiorstwo bardziej jako strukturę zarządzania niż jako funkcję produkcji. Centralnym punktem rozważań ekonomii neoinstytucjonalnej jest teoria kosztów transakcyjnych, w świetle której podstawowym „atomem” procesu gospodarowania jest transakcja i koszty transakcyjne stanowiące tworzywo, z którego zbudowany jest zarówno rynek, jak i hierarchia. Przyjmuje się, że hierarchia jest synonimem przedsiębiorstwa i oznacza ścisłe relacje nakazowo-kontrolne, gdzie procesy koordynacji realizuje widzialna ręka menedżera.  W efekcie wymiany koszty transakcyjne sprowadzają się do kosztów koordynacji, które obejmują koszty ustalenia prawidłowej ceny, koszty zawarcia transakcji, koszty wynikające z asymetrii informacji, a także koszty realizacji umów. Fundamentalną tezę dla omawianych poglądów wysunął Coase, który udowodnił, że rynki i struktury hierarchiczne stanowią alternatywne sposoby organizacji gospodarczej. W świetle koncepcji ekonomii neoistytucjonalnej wirtualna organizacja to hybrydowa forma organizacyjna, posiadająca cechy tak struktur rynkowych, jak i hierarchicznych, w której koszty transakcyjne decydują o sposobie organizacji powiązań partnerskich w kreowaniu struktur zarządzania.

 

W założeniach koncepcyjnych modelu należy uwzględnić także zjawiska technologiczne, które mają wpływ na rolę i miejsce technologii informacyjnej w kształtowaniu rynku i hierarchii oraz hybrydowych form organizacyjnych. Głównie analizie poddano wpływ czynników technologicznych na powstawanie nowych form organizacyjnych konsolidujących elementy alternatywnych struktur zarządzania w kontekście podstawowych atrybutów transakcji (asymetria informacyjna, specyfika aktywów, ograniczona racjonalność czy zachowania oportunistyczne).

Prezentowany model kreowania organizacji wirtualnej przedsiębiorstw – MKOWP jest analityczną koncepcją, która umożliwia wnikliwy opis procesu jej tworzenia, zachodzącego w trójwymiarowej przestrzeni przekształceń wyznaczonej:

–        wymiarem organizacyjno – strukturalnym, który dotyczy procesów zróżnicowania przedsiębiorstw w wyniku modularyzacji, czego konsekwencją jest koncentracja na kluczowych kompetencjach poprzez wykorzystywanie metody outsourcingu (KK),

–        wymiarem kształtowania współdziałania, dotyczącego działań związanych z koordynacją i integracją zachowań koniecznych dla spójnego funkcjonowania rozproszonych podmiotów gospodarczych i tworzenia efektywnych międzyorganizacyjnych powiązań  (KI),

–        wymiarem wdrożeń i wykorzystywania technologii informatyczno – komunikacyjnych (IT).

 

Wyodrębnione obszary przekształceń umożliwiają formułowanie trójwymiarowej koncepcji kreowania organizacji wirtualnej przedsiębiorstw. Przedmiotem analizy teoretycznej oraz badań empirycznych są równoczesne zmiany, zachodzące w obrębie zidentyfikowanych wymiarów, które obejmują wieloaspektowe przekształcenia zachodzące w przedsiębiorstwach i w przestrzeni między nimi. W założeniach projektowych zaprezentowany model wyklucza binarną koncepcję wirtualizacji (wirtualny – nie wirtualny), opierając się na koncepcji continuum wirtualizacji, która koncentruje się na procesie wirtualnego organizowania, czyli stopniowym przejawianiu cech wirtualizacji. Dodatkowym wsparciem teoretycznym prezentowanego modelu wirtualizacji jest podejście Lorscha i Lawrence’a, którzy przyjmują pięć składowych projektowania struktur organizacyjnych: zróżnicowanie (specjalizacja, podział pracy, koncentracja na procesach), koordynacja, integracja, delegowanie i formalizacja. Dla opisu prezentowanego modelu posłużono się trzema kolejnymi składowymi wyżej przedstawionej koncepcji. Składowa formalizacji, opisująca stopień sformalizowania struktury i  przypływów informacyjnych oraz składowa decentralizacji, dotycząca delegowania uprawnień, zostały ujęte w obszarze koordynacji i integracji zachowań. Obserwacja zjawisk towarzyszących pojawianiu się organizacji wirtualnej wymaga uwzględnienia czynników (zmiennych) sytuacyjnych. Przy wyborze zmiennych zwrócono uwagę na zmienne szczególnie istotne w rozwoju organizacji wirtualnej, do których zaliczono dynamiczne otoczenie, wielkość przedsiębiorstwa oraz jego osiągnięcia gospodarcze, ponadto świadomość i wiedzę kadry zarządzającej w zakresie stosowania nowoczesnych metod organizacji i zarządzania przedsiębiorstwem.

 

Za pomocą prezentowanego modelu wirtualizacji, zbadano podatność i możliwości organizacji wirtualnej 87 przedsiębiorstw stanowiących reprezentatywną próbę populacji 500 najlepszych przedsiębiorstw w Polsce za rok 2001, klasyfikowanych w periodyku „Rzeczpospolita” z roku 2002. Głównym kryterium wytypowania „pięćsetki”, jako populacji generalnej do badania reprezentatywnego była obecność istotnej z punktu widzenia kreowania wirtualnej organizacji cechy,  –posiadania technologii informacyjnej (infrastruktura komputerowa, dostęp do Internetu, technologie e – biznesu oraz zastosowanie systemów informatycznych wspomagających zarządzanie ERP). Charakteryzując przyjęte do badania przedsiębiorstwa wzięto również pod uwagę efekty restrukturyzacji organizacyjno – własnościowej, które znalazły wyraz w statusie własnościowym badanych przedsiębiorstw. Przedsiębiorstwa na „Liście 500” to przedsiębiorstwa, które mają za sobą najgłębsze zmiany w zakresie restrukturyzacji organizacyjno – własnościowej, których efektem jest wykształcenie struktury odpowiadającej przyjętej strategii rozwoju.

 

Ciekawe są wyniki analiz co do możliwości kreowania organizacji wirtualnej przedsiębiorstw w trójwymiarowym ujęciu przemian, z perspektywy założeń ekonomii neoinstytucjonalnej:

–        dostrzega się ograniczone możliwości i niski stopień podatności badanych przedsiębiorstw na wirtualną organizację działań, pomimo zauważalnych symptomów prawidłowych tendencji rozwoju w tym kierunku; ograniczenia procesów wirtualizacji wynikają przede wszystkim: (a) z niskiego tempa zmian w obszarze rozwiązań organizacyjno – strukturalnych prowadzących do koncentracji na kluczowych kompetencjach w wyniku podejmowania outsourcingowej formuły organizacji, (b) z braku właściwych dla wirtualnego środowiska narzędzi koordynacji, takich jak zaufanie, otwartość, wzajemność, które zastąpiłyby dotychczas stosowane instytucjonalne narzędzia współdziałania, (c) z niskiego poziomu wdrożeń zaawansowanych technologii informacyjnych umożliwiających zewnętrzną integrację (procesową) współdziałających podmiotów,

–        w warunkach polskich, pomimo prawidłowych tendencji, rozwój wirtualnych form organizacyjnych ograniczany jest przez niedostateczne korzystanie z metody outsourcingowej, a więc składowej strategii inżynierii procesowej w kierunku koncentracji na kluczowych kompetencjach; mimo tego, że  wiele firm deklaruje gotowość do jej podjęcia, jednak tylko niewielka część tę strategię realizuje,

–        za opóźnienia w realizacji organizacji wirtualnej odpowiada także niskie tempo wdrożeń zaawansowanych technologii komputerowych, np. CRM, SCM, które umożliwiają obsługę procesów zewnętrznych, a poprzez funkcję koordynacyjną niwelują problemy czasowego i przestrzennego rozproszenia,

–        barierą hamującą możliwości rozwoju wirtualnej organizacji przedsiębiorstw jest brak narzędzi koordynacji działań właściwych dla środowiska wirtualnego, integrujących stopniowo „rozpadające się” struktury; procesy odchodzenia od wertykalnej integracji do układów horyzontalnych, wyraźnie wstrzymuje przewaga takich narzędzi instytucjonalnych jak ścisła kontrola, procedury i zależności hierarchicznie, wysoki stopień formalizacji działań (z narastającą wirtualizacją przedsiębiorstw nie współgra także istotne narzędzie koordynacji, jakim jest zaufanie),

–        z przeprowadzonych badań wynika, że większe możliwości i większą podatność na rozwój wirtualizacji posiadają przedsiębiorstwa duże, które w realiach gospodarki polskiej są często liderami w stosowaniu nowoczesnych systemów zarządzania, dysponującymi odpowiednimi zasobami finansowymi na wdrażanie najnowszych technologii; one też głównie inicjują zmiany strukturalne,

–        przeprowadzone badania nie potwierdzają związku przemian w kierunku organizacji wirtualnej z osiągnięciami gospodarczymi rozpatrywanych przedsiębiorstw; realizowane osiągnięcia kojarzone są wyłącznie ze zmianami zachodzącymi w obszarze zmian organizacyjno – strukturalnych, na poziom osiągnięć nie wpływają działania wdrożeniowe I&CT, co tłumaczy początkowe stadium rozwoju wirtualizacji przedsiębiorstw,

–        zaobserwowane cechy przedsiębiorstw w zakresie wytyczonych wymiarów wirtualizacji sprzyjają bardziej powstawaniu organizacji wirtualnej wewnętrznej, na płaszczyźnie przedsiębiorstwa,

–        pozytywną rolę w rozwoju organizacji wirtualnej przedsiębiorstw w Polsce odgrywają aspiracje i ambicja zarządzających w stosowaniu najnowszych technik i metod zarządzania, w tym organizacji wirtualnej; kreowanie wizerunki firmy  nowoczesnej wiąże się z większą skłonnością i właściwym nastawieniem do wdrażania zasad wirtualizacji (to pozytywne podejście jest wyrazem posiadanej wiedzy menedżerskiej, a także umiejętności dostrzegania roli czynników przemian, co potwierdziły przeprowadzone badania wpływu wiedzy i umiejętności kadry kierującej w zakresie wirtualnych rozwiązań organizacyjnych na realizację osiągnięć przedsiębiorstw).

 

 

 

11 Postępowanie organizacji w środowisku lokalnych i regionalnych społeczności informacyjnych

Włodzimierz Olszewski

Konsorcjum Sieci Laboratoriów WOD: Łódź-Olsztyn-Polkowice-Poznań, Dolnośląska Wyższa Szkoła Techniki i Przedsiębiorczości w Polkowicach

 

Czynniki rozwoju regionalnego. Współczesna faza rozwoju społeczno-gospodarczego zdominowana jest przez wzrost znaczenia informacji i tworzenie wiedzy determinujących innowacyjność regionów funkcjonujących w Gospodarce Opartej o Wiedzę.

Polityka regionalna polega na sterowaniu procesem rozwoju społeczności lokalnych przez władze samorządowe. Czynniki rozwoju wpływają na przemiany społeczności lokalnych
i mają miejsce w granicach regionu a swoje źródła mają zarówno w jego granicach (wewnętrzne) lub też poza regionem (zewnętrzne). Bogaty zbiór współczesnych czynników rozwoju regionalnego prezentowany w literaturze przedmiotu można podzielić na 3 grupy: infrastruktura techniczna, kapitał ludzki, czynniki miękkie (w tym kapitał społeczny
i innowacje). Wyróżnia się dwa modele realizacji polityki regionalnej:

–        intraregionalną – regiony upodmiotowione w sensie kompetencyjnym i finansowym,

–        interregionalną – działania państwa wobec regionów (nowym zjawiskiem związanym
z polityką interregionalną jest prowadzenie interwencjonalizmu w układzie  ponadnarodowym).

 

W realizacji obu polityk można stosować działania zmierzające do poprawy warunków rozwoju w celu ograniczenia możliwości pojawienia się w przyszłości barier dla rozwoju (podejście prorozwojowe), oraz działania naprawcze lub łagodzące negatywne zjawiska, które już zaszły i są konsekwencją błędów i zaniechań z przeszłości (podejście interwencyjne).

Innowacje technologiczne i organizacyjne są uważane za podstawowy czynnik rozwoju regionalnego we wszystkich współczesnych modelach rozwoju a kapitał społeczny jest nową kategorią kapitału, sprzyjającą przedsiębiorczości i innowacyjności, co w literaturze często określa się „lepkością” regionu i co stanowi o jego konkurencyjności.

 

Życie społeczne, w tym gospodarka wymaga koordynacji niezbędnej dla procesu rozwoju. Obok modeli mechanizmów rynkowych i hierarchii nowym modelem jest sieć, będąca poziomą formą organizacyjną. Struktura sieciowa dotyczy różnych rodzajów działalności zarówno gospodarczych jak i administracyjnych, edukacyjnych, społecznych itd.

 

Środowisko sieciowe służy tworzeniu wiedzy i dostępności do informacji, które zachodzą na różnych poziomach organizacji społecznych i są nowym czynnikiem wzrostu (obok kapitału, pracy i surowców) w Gospodarce Opartej o Wiedzę. Istotą takiego społeczeństwa jest sieć relacji społecznych oraz swobodny dostęp do uczestniczenia w różnych organizacjach i grupach społecznych czy kręgach zainteresowań przez jednostkę.

 

W tego typu społeczeństwie, będącym jednym z przejawów społeczeństwa informacyjnego jednostka jest określana jako węzeł sieci, co oznacza, że organizuje ona swoje życie prawie wyłącznie dzięki własnym wyborom interakcji z innymi jednostkami. W ten sposób tworzona jest sieć wzajemnych relacji, bardzo często krótkotrwałych.

 

Koncepcja  środowiska sieciowego w Związku Gmin Zagłębia Miedziowego. Związk Gmin Zagłębia Miedziowego (Polkowice, Chocianów, Przemków, Gaworzyce, Grębocice, Radwanice, Jerzmanowa, Pęcław) buduje wspólnie infrastrukturę internetową na łączach światłowodowych (prowadzonych głównie pod liniami przesyłowymi energii elektrycznej średniego napięcia; około 70% taniej od tradycyjnych sposobów).

clip_image008

 

 

 

 

Przyjęte założenia topologiczne sieci ZGZM

 

W pierwszej kolejności planuje się dotarcie do wykluczonych internetowo wsi i małych miasteczek – oprócz Internetu telewizja kablowa wysokiej rozdzielczości – odbiorcy indywidualni. Projekt obejmuje także instytucje publiczne: urzędy gmin, szkoły, biblioteki, siedziby jednostek Ochotniczej Straży Pożarnej, ośrodki kultury, Ośrodki Pomocy Społecznej, ośrodki zdrowia, świetlice, itp.

Finansowanie projektu przedstawia się następująco: 15% dochody własne Związku Gmin Zagłębia Miedziowego, 85% Regionalny Program Operacyjny Urządu Marszałkowskiego.

Obecnie na zlecenie Gminy Polkowice realizowany jest innowacyjny projekt budowy transmisyjnej sieci dystrybucyjnej na obszarze cyfrowego wykluczenia pozwalający przetestować rozwiązanie.

Wpływ środowiska sieciowego na przemiany społeczności lokalnych w Związku Gmin Zagłębia Miedziowego. Budowanie infrastruktury IT towarzyszą działania dotyczące jej wykorzystania dla przemian organizacji działań środowisk lokalnych funkcjonujących w środowisku sieciowym. Do najważniejszych działań można zaliczyć:

–        wsparcie systemu oświaty szkolnej w nowoczesny sprzęt, zwiększenie liczb godzin obowiązkowych z zakresu IT, możliwość rozwijania zainteresowań w ramach zajęć pozalekcyjnych (koła, konkursy) – gmina Polkowice posiada jeden z najwyższych wskaźników liczby komputerów w szkołach

–        Program Burmistrza „Gmina Polkowice w społeczeństwie informacyjnym” w ramach którego wszyscy chętni mieszkańcy mają bezpłatnie uczestniczyć w kursach obsługi komputera organizowanych przez Dolnośląską Wyższą Szkołę Przedsiębiorczości i Techniki

–        udział słuchaczy Uniwersytetu Trzeciego Wieku w obowiązkowych zajęciach informatycznych (przeszło 200 osób),

–        budowanie ogólnodostępnej miejskiej infrastruktury IT (kioski informatyczne, darmowy Hotspot),

–        udział w szkoleniach informatycznych osób niepełnosprawnych z dysfunkcjami ruchowymi itp.,

–        dostęp dla studentów, kadry naukowo-dydaktycznej poprzez światłowód do Wrocławskiej Sieci Akademickiej, a za jej pośrednictwem do zasobów cyfrowych całego świata,

–        udział pracowników Jednostkom Samorządu Terytorialnego w konferencjach, seminariach dotyczących przemian strukturalnych organizacji społeczeństwa informacyjnego, wyzwań stojących przed edukacją, problematyki etyki współdziałania w środowisku sieciowym, itp.

–        wdrażanie w podległych Jednostkach Samorządu Terytorialnego instytucjach
e-administracji.

 

Wdrażane działania stanowią przygotowanie zarówno mieszkańców jak i władz Subregionu polkowickiego do tworzenia lokalnego społeczeństwa informacyjnego. Na uwagę zasługuje fakt komplementarności działań zarówno w sferze materialnej jak i niematerialnej (upowszechnianie idei społeczeństwa informacyjnego, kształtowanie kompetencji medialnych społeczeństwa we wszystkich grupach wiekowych).

 

  1. Bendyk E., Antymatrix: człowiek w labiryncie sieci, Warszawa 2004.
  2. Castells M., The Information Age: Economy. Society and Culture., Vol. 3: End of Millennium, Oxford 1998.
  3. Churski P., Czynniki rozwoju regionalnego i polityka regionalna w Polsce w okresie integracji z Unią Europejską, Wyd. Naukowe UAM, Poznań 2008.
  4. Drucker P. F., Społeczeństwo pokapitalistyczne.
  5. Goban – Klas T. Nadchodzące społeczeństwo medialne, [w:] „Chowanna” 2007,  T. 2 (29).
  6. Kierzkowski Z., Modelowanie strukturalnych organizacji działań, XI Seminarium Problemowe WOD, Polkowice 2007.
  7. Koncepcja techniczno-organizacyjna subregionalnego sieci IT dla obszaru Związku Gmin Zagłębia Miedziowego, Polkowice 2008.
  8. Naisbitt J., Megatrendy, Zysk i S-ka, Poznań 1997.
  9. Trapscott D., Gospodarka cyfrowa. Nadzieje i niepokoje Ery Świadomości Systemowej, s. XI, XII.

10.  Wenta K., Teoretyczne przesłanki dla pedagogiki mediów  [w:] K. Wenta, E. Perzycka (red.), Edukacja informacyjna. Technologie informacyjne w ponowoczesnym świecie, Oficyna Wydawnicza  CD i DN, Szczecin 2005.

 

 

12.  Postępowanie nauczyciela w przyjaznych procesach cyfrowego stylu nauczania

Zbigniew Talaga

Zespół Szkół Budownictwa Nr 1 w Poznaniu

 

W ostatnich latach trwają intensywne prace na rzecz przemian programowych nauczania, zmierzających w kierunku tworzenia  „edukacji skutecznej, przyjaznej i nowoczesnej”. Tematyka ta jest komplementarna względem problematyki rozwoju technologii społeczeństwa informacyjnego, a w tym względem tworzenia skutecznych sposobów cyfrowej (wirtualnej) organizacji działań w strukturach współdziałania i nauczania kształtującego się społeczeństwa informacyjnego w kontekście przemian ekonomiczno-gospodarcze, społeczno-kulturowe i edukacyjnych. Wśród ważnej problematyki dostrzega się następujące tematy:

–        strukturalizacja przekazywania wiedzy i wymagań w procesie nauczania,

–        organizacja międzyszkolnego współdziałania,

–        znaczenie integracji między przedmiotowej w przemianach postępowania szkoły,

–        wpływ Internetu na komunikację interpersonalną,

–        nowoczesne technologie w przemianach nauczania ogólnego,

–        przemiany programowe nauczania informatyki i technologii informacyjnych w szkolnictwie ogólnym,

–        nowe strategie postępowania nauczyciela w nauczaniu i upowszechnianie sprawnych narzędzi metodycznych.

Problematyka ta dotyczy przemian w technologiach, ukierunkowanych na cyfrową organizację, ze szczególnym uwzględnieniem przemian strukturalnych nauczania ogólnego, na podstawie stosowania metod  informatyki i technologii informacyjnych w cyfrowej organizacji nauczania w różnorodnych szczegółowych dziedzinach przedmiotowych.

 

Punktem wyjścia prac nad przemianami organizacji nauczania jest rozwój środowiska informacyjno-sieciowego, które stwarza nowe, nieznane dotąd możliwości wzajemnego przekazywania wiedzy tematycznej i osobowej. Widać bowiem, że przyszłością edukacji, zorientowanej na tworzenie nowego obrazu społeczeństwa (z podmiotowym udziałem człowieka w procesach organizacyjnych, gospodarczych, społecznych i politycznych) jest skuteczne przekazywanie podstawowych kompetencji informacyjnych kształtowanych w szkole.

 

Potrzebne są przemiany wielo aspektowe. Po pierwsze potrzebne jest upowszechnienia problematyki strukturalizacji wiedzy i standaryzacji wymagań w poszczególnych etapach edukacji. Po drugie ważne jesttworzenie infrastruktury wzajemnej wymiany i korzystania z wiedzy osobowej uznanych specjalistów, reprezentujących obszary różnorodnej wiedzy humanistycznej i wiedzy specjalistów w obszarze I&CT. Po trzecie trzeba dostrzegać, że wzajemne nauczanie i współdziałanie nie jest możliwe bez przemian systemów edukacji, traktowanych jako sprawczy czynnik kształtowania tych umiejętności, wpływających na przemiany strukturalne nauczania, opartego do przekazywaniu zasobów cyfrowych, w tworzonych przez nauczycieli schematach wiedzy przedmiotowej. Dodatkowym przymiotem podejmowanych prac jest to, że szkoły coraz skuteczniej same wspierają przemian służące podmiotowemu rozwojowi uczniów; stąd dostrzegana jest rola  współdziałania szkół w ramach prac nad przemianami nauczania. Uwzględnia się znaczenie zagadnień etycznych, które stanowią paradygmat pracy nauczycieli, z narastającą interakcją uczeń-nauczyciel w kolejnych etapach edukacji. Taki obraz prac, wynikający z nowoczesnej wiedzy na temat potrzeb przemian przedmiotu i form nauczania w strukturach „nowego społeczeństwa”, może służyć promocji  (upowszechnianiu) nowych podstaw programowych nauczania, zmierzających w kierunku tworzenia  „edukacji skutecznej, przyjaznej i nowoczesnej”. Potrzebne są jednak nowe uregulowania organizacyjne (m. in. w pracach nadzoru pedagogicznego), a nawet potrzeby  uregulowań prawnych (m. in.  w przemianach prawa oświatowego), dostosowywania prawa oświatowego do nowoczesnych trybów przekazywania wiedzy. Chodzi o „umocowania”  także formalno – prawne upowszechniania doskonalenia podstawy programowej … w poszczególnych typach szkół pod kątem jej zgodności z gospodarką opartą na wiedzy – podstawy programowej, będącej konsekwencją tworzenia struktur cyfrowego stylu nauczania.

 

13. Dylematy użyteczności usług informatycznych

Jerzy Czerbniak

Konsorcjum Sieci WOD: Łódź-Olsztyn-Polkowice-Poznań

Wyższa Szkoła Informatyki w Łodzi

 

Usługi informatyczne to bardzo szerokie pojęcie. Pod pojęciem „użyteczność usług informatycznych”  należy rozumieć stopień dopasowania rozwiązania informatycznego do potrzeb użytkownika. Do oceny stopnia dopasowania zaliczamy łatwość nauki i obsługi, efektywność uzyskiwanych wyników, poczucie satysfakcji z korzystania z danej usługi. Rozwiązaniem informatycznym, z którego korzysta użytkownik może być np. system operacyjny komputera, oprogramowanie realizujące jedną lub więcej usług informatycznych, zintegrowane pakiety oprogramowania itp. Wachlarz potrzeb użytkowników jest bardzo szeroki i zróżnicowany, zleży od wieku, wykształcenia, rodzaju pracy, miejsca przebywania. Ciągle powiększa się zakres funkcjonalności oprogramowania, czyli zwiększa się zakres realizowanych funkcji odpowiadających potrzebom użytkowników. Świadomy swoich potrzeb użytkownik może wybrać z bogatej oferty odpowiednie narzędzie. Pojawia się dylemat czy produkt spełni oczekiwanie, czy będzie łatwy w użytkowaniu, czy inaczej czy będzie użyteczny? A użyteczność wybranego narzędzia może być różna (np. różne oceny użytkowników systemów operacyjnych firmy Microsoft, różnych dystrybucji Linux, wygody użytkowania różnych wersji pakietu MS Office). Jeśli korzystamy z narzędzi darmowych to błędny wybór niesie ze sobą tylko stratę czasu. Ale przy podejmowaniu decyzji dotyczących np. zakupu rozwiązań informatycznych znaczenie użyteczności staje się istotne. Średni przychód na głowę mieszkańca w Polsce wynosi 56% średniego przychodu w Unii Europejskiej. Oznacza to konieczność przemyślanych wyborów pod kątem  funkcjonalności i użyteczności.

 

Użyteczność usług informatycznych zdecydowanie wspomaga potrzeby, postawy i kompetencje korzystania z nowych technologii i ma bezpośrednie przełożenie na tempo rozwoju e-infrastruktury. Zapewnienie fizycznego dostępu do usług informatycznych jest oczywiście warunkiem koniecznym rozwoju społeczeństwa informacyjnego ale sposób korzystania z tych usług zależy od potencjału intelektualnego użytkowników. To użytkownik decyduje o tym jak, kiedy, w jakim celu będzie korzystał z nowych możliwości.  Czasami sposób korzystania z usługi jest narzucony, np. program PŁATNIK, typy i formaty dokumentów. Wymusza to podniesienie poziomu kompetencji użytkownika (nauka własna, szkolenia) ale nie powoduje automatycznego wzrostu potrzeb korzystania z innych usług. Według Raportu Polska 2030 np. w latach 2003 – 2006 16% ÷ 18% Polaków posiadało komputer w domu ale go nie używało. Także stopień wykorzystania funkcjonalności dytorów tekstu, arkuszy kalkulacyjnych, programów poczty elektronicznej, jest niski. Wydaje się, że jedną z przyczyn jest niedopasowanie do umiejętności użytkownika użyteczności oprogramowania. Jeśli korzystanie z oprogramowania i sprzętu jest intuicyjnie łatwe to wykorzystanie ich możliwości rośnie. Przykładem jest sukces rynkowy telefonu iPhone. Gra rynkowa  twórców oprogramowania podnosi użyteczność usług nformatycznych. Zdają sobie oni sprawę, że trudności w obsłudze zniechęcają do korzystania z oferowanych usług informatycznych a tym samym zmniejszają ich zyski.

 

Projektowanie zorientowane na użytkownika bada potrzeby, wymagania i ograniczenia końcowego użytkownika i jest podstawową metodą użyteczności. Niestety nie ma uniwersalnego końcowego użytkownika. Dlatego jest trudno wytworzyć uniwersalny produkt informatyczny. Konieczne jest dopasowanie się użytkownika do  wytworzonego produktu. Użytkownik musi posiadać chęć, umiejętność i możliwości uczenia się.  Pierwsza cecha ma uwarunkowania wiekowo – kulturowe ale może być wymuszona konkurencją na rynku pracy. Druga cecha zależy od systemu edukacji i indywidualnych predyspozycji. Trzecia cecha zależy od polityki czyli rzeczywistej realizacji przestrzeni równych szans. Wyszukanie frazy  „ darmowe kursy obsługi komputera” daje wyniki wskazujące na silne wspomaganie kursów z środków Unii Europejskiej. Dyrektywy Unii Europejskiej wymuszają na Polsce budowę infrastruktury społeczeństwa informacyjnego. Firmy komercyjne stworzą możliwości płatnego dostępu do szerokopasmowego Internetu. Możliwości aktywnego korzystania z usług informatycznych są i będą coraz większe. Na tym tle możliwości cyfrowej organizacji działań integrujące przedsiębiorstwa i ludzi są  olbrzymie. Realizacja tych możliwości  zależy od łatwości korzystania z usług informatycznych. Dopasowanie oprogramowania do możliwości użytkownika końcowego jest kluczowym zagadnieniem szybkiej budowy społeczeństwa informacyjnego przygotowanego między innymi do wirtualnej organizacji działań.

 

14.  Praktyczne aspekty integracji systemów łączności oraz bezpieczeństwa osób i mienia

Piotr Kozłowicz, Michał Konklewski

Emtel System Sp. z o.o., Poznań

 

Generowane przez  systemy alarmowe, p. poż., telewizji przemysłowej, kontroli dostępu czy systemy komunikacyjne sygnały są źródłem wielu informacji, które wykorzystane w odpowiedni sposób np. przez system telekomunikacyjny mogą posłużyć zwiększeniu bezpieczeństwa osób i mienia. Istotnym aspektem takiej integracji jest możliwość współpracy z szeroką gamą systemów,  przy jednoczesnym wskazaniu kierunku dalszego rozwoju.

 

 

 

 

 

Część IV. WYBRANE ZADANIA BADAWCZO-ROZWOJOWE

I EDUKACYJNE

 

 

15. Wirtualne systemy informacji przedmiotowej

Zbigniew Kierzkowski, Piotr Tarłowski

Konsorcjum Sieci Laboratoriów WOD: Łódź-Olsztyn-Polkowice-Poznań, Wyższa Szkoła Informatyki w Łodzi i Politechnika Poznańska

 

Kreowanie systemów WOD wymaga tworzenia wspólnej przestrzeni informacyjnej – wirtualnego środowiska informacji, za pośrednictwem której możliwa jest realizacja różnorodnych funkcji i zadań w strukturach współdziałania przedsiębiorstw i współpracy ludzi.

clip_image009

 

 

 

 

Usługi gromadzenia danych i dostępu do informacji przedmiotowej są ważnymi składowymi budowy różnorodnych wirtualnych systemów informacji przedmiotowej, struktur wirtualnego środowiska informacji – środowiska informacyjnego systemów wirtualnej organizacji działań – WOD. Korzystamy z systemów dostępowych i organizowanych obecnie coraz częściej centrów danych i aplikacji. W ramach centrów realizuje się mechanizmy zarządzania: (a) gromadzeniem zasobów poprzez dostęp do hostów i serwerów sieciowych, z uwzglę­dnie­niem ochrony danych i wymaganych prze­pustowości w wymianie danych, (b) zmianami treści gromadzonych zasobów. W tworzeniu środowiska informacyjnego systemów WOD formułować można następujące obszary tematyczne badań i rozwoju technologicznego:

–        projektowanie struktur komunikacji na wpół (semi) bezpośredniej otwartej opartych na międzysieciowych serwisach informacyjnych: KsBO-MSI,

–        cyfryzacja,  archiwizacji  i dostępu do dokumentów źródłowych wiedzy przedmiotowej,

–        prezentacja medialna informacji przedmiotowej.

 

We wspólnej przestrzeni informacyjnej możliwa jest procesowa integracja współdziałania różnorodnych współdziałających partnerów. Modelem procesowej integracji współdziałania jest logistyka różnorodnych procesów zarządzania informacją (rys. 2.). Logistyka wynika z zestawiania modeli tematycznych procesów przetwarzania danych przeznaczonych do obsługi wspólnie (kooperacyjnie) rozwiązywanych problemów przez wzajemnie powiązane struktury współdziałania.

clip_image010

 

 

 

 

Ogólna struktura logistyki procesów informacyjnych we współdziałaniu

 

Wśród zadań szczegółowych dotyczących  budowy wirtualnych systemów informacji przedmiotowej można wymienić:

 

Zadanie 1. Budowa wirtualnych sieci danych i wiedzy: e-SD&WP. W środowisku struktur KsBO – MSI  wyodrębnia się  różnorodne sieci (wirtualne) danych i wiedzy przedmiotowej: e – SD&WP, w których organizować można różne tryby gromadzenia i przekazywania zasobów  danych (dokumentów) cyfrowych różnych kategorii WP:

–        wiedzy osobowej: e – SD&WO,

–        wiedzy zespołowej tematycznej: e – SD&WZT,

–        wiedzy społeczeństwa informacyjnego: e – SD&WSI,

–        wiedzy wirtualnych organizacji: e – S D&WWO.

Użytkowanie tych sieci zaliczać można do elementów technologii współdziałania, wykorzystywanych w przemianach organizacji społeczeństwa informacyjnego. Powyższe eksperymentalne rozwiązania bazują na koncepcji tworzenia „portfolio” i kluczy dostępu do dokumentów źródłowych informacji przedmiotowej.

 

Zadanie 2. Swobodny  dostępu do informacji przedmiotowej w strukturach wirtualnego środowiska informacji. Sieciowa konsolidacja rozproszonych serwerów i integracja zasobów cyfrowych, pozwala budować „gridowe” środowisko usług  infrastruktury informacyjnej komunikacyjnej. Istota rozwiązań polega na  sieciowej konsolidacji pamięci serwerów oraz  na możliwości realizacji usług „swobodnego” dostępu do informacji przedmiotowej. Organizacja i użytkowanie tych usług pozwala budować sprawne systemy interaktywnej komunikacji medialnej oparte na międzysieciowych serwisów informacyjnych: IKM-MSI, jako środowisko informacyjne różnorodnych wirtualnych systemów informacji przedmiotowej: wiedzy osobowej, tematycznej zespołowej, czy także informacji przedmiotowej pozyskiwanej i przekazywanej w środowisku publicznych systemów informatycznych, informacji przedmiotowej pozyskiwanej i przekazywanej w środowisku tworzonych coraz powszechniej wirtualnych organizacji – przedsiębiorstw wirtualnych.

 

Zadanie 3Synteza międzysieciowych serwisów informacyjnych. Przez serwisy informacyjne rozumiemy procedury obsługi zapotrzebowań informacyjnych w strukturach sieciowego archiwizowania dokumentów – zasobów cyfrowych. Podstawą syntezy serwisów informacyjnych są scenariusze (specyfikacja) przekazywania (i wzajemnej wymiany, także zdalnie) informacji przedmiotowej. Implementacja i użytkowanie procedur opisujących serwisy informacyjne ułatwia wspomaganie nowych form wirtualnego współdziałania, jak i zdalnego uczestnictwa – e-Uczestnictwa,  w różnorodnych strukturach pojawiających się  systemów wirtualnej (cyfrowej) organizacji działań – WOD.

 

Zadanie 4Prezentacja medialna informacji przedmiotowej. Prezentacja informacji przedmiotowej odgrywa ważną rolę w strukturach interaktywnej komunikacji medialnej. Stworzenie jednak prezentacji medialnej informacji przedmiotowej – prezentacji dostosowanej do sposobów myślenia człowieka – wymaga znajomości wielu zagadnień dotyczących montażu rysunków, obrazów, dźwięku, tworzenia animacji, a także wzbogacania prezentacji medialnej o składową medialną, jaką jest dźwięk. Poprawna obróbka medialna informacji przedmiotowej (rysunku, obrazu, animacji, dźwięku) napotyka na szereg problemów realizacyjnych i odpowiedniego doboru odpowiedniego środowiska narzędziowego, komputerowego i programowego, co na stosowaniu różnych technik i metod prezentacji, dostosowanych do obsługi scenariuszy prezentacji informacji.

 

 

16. Struktury sieciowe wzajemnie powiązanych serwerów

Zdzisław Pólkowski

Konsorcjum Sieci Laboratoriów WOD: Łódź-Olsztyn-Polkowice-Poznań, Dolnośląska Wyższa Szkoła Techniki i Przedsiębiorczości w Polkowicach

 

Jednym z istotnych elementów procesu agregacji, udostępniania oraz publikowania zasobów cyfrowych w sieci komputerowej LAN i WAN jest właściwa struktura sieciowa wzajemnie powiązanych ze sobą serwerów. W praktyce funkcjonuje wiele modeli wspomnianych struktur. Jednak trudno wskazać rozwiązanie najlepsze. Wysiłek projektantów z reguły jest skupiony na poszukiwaniu kompromisu pomiędzy kosztem wdrożenia systemu, jego złożonością oraz niezawodnością.  Wydaje się, że przy tworzeniu struktur sieciowych zasadne jest to, aby były brane pod uwagę takie czynniki jak: aktualnie obowiązujące standardy, skalowalność, elastyczność proponowanych rozwiązań, tendencje rozwojowe, niezawodność i bezpieczeństwo.  Głównym celem opracowania jest przedstawienie  próby zbudowania modelu struktury sieciowej Sieci laboratoriów WOD.

 

Przedstawia się  charakterystykę wybranych struktur sieciowych na świecie i w kraju. Szczególna uwaga została skupiona na opisie konfiguracji struktur sieciowych, uwzględniając parametry serwerów, przełączników sieciowych, punktów dostępowych oraz innych urządzeń. Ponadto przyjęto, że kluczowym elementem struktur sieciowych jest medium transmisyjne. Zastosowany rodzaj medium ma istotny wpływ na rozwój struktury w przyszłości. W opisie uwzględnia się korzystanie z usług  sieciowych w rozwijającym się środowisku wirtualnym instytucji publicznych, edukacyjnych i komercyjnych. Na podstawie określonego celu oraz przeprowadzonej analizy istniejących rozwiązań dotyczących struktur sieciowych podjęto próbę opracowania modelowego rozwiązania dedykowanego na potrzeby komunikacji, agregowania, wymiany i publikowania zasobów w postaci cyfrowej. Należy podkreślić, że poszczególne laboratoria w Sieci laboratoriów WOD funkcjonują w placówkach edukacyjnych. Aktualnie istniejące struktury sieciowe charakteryzują się różnym poziomem zaawansowania technologicznego, złożonością struktury oraz zróżnicowanym poziomem bezpieczeństwa zasobów

 

Opracowana koncepcja może być wykorzystana przez instytucje edukacyjne w ośrodkach gminnych i miejskich. Jej wdrożenie może przyczynić się do zwiększenia „aktywności wirtualnej” np. poprzez wspólne organizowanie konkursów, realizowanie „wirtualnych projektów” krajowych i międzynarodowych. W celu zwrócenia uwagi na sprawdzone i dobrze funkcjonujące projekty międzynarodowe wybrano i scharakteryzowano kilka, które mogą posłużyć jako wzór do naśladowania. Mogą stać się również impulsem do podjęcia współpracy z ośrodkami, które już posiadają doświadczenie w tym zakresie. Potrzebne są dalsze prace o charakterze praktyczno- wdrożeniowym dla oceny przydatności struktur sieciowych przeznaczonych na potrzeby komunikacji, agregowania, wymiany i publikowania zasobów w postaci cyfrowej.

 

 

17. Krytyczna analiza technik przetwarzania równoległego i rozproszonego

Maciej Pawłowski, Jarosław Fuczko, Tomasz Sarnowski

Studenckie Koło Naukowe „Acropol”, Politechnika Wrocławska

 

W ostatnich latach coraz większego znaczenia nabierają obliczenia równoległe, gdzie w proces obliczeniowy mający na celu rozwiązanie określonego zadania zaangażowanych jest jednocześnie wiele procesorów. Celem takiego postępowania jest przyspieszenie obliczeń, czyli otrzymanie wyników szybciej niż w przypadku systemu z jednym procesorem. Przy rozwiązywaniu niektórych problemów jest to jedyny sposób, aby otrzymać wyniki w sensownym, akceptowalnym czasie: przykładowo, w systemach prognozowania pogody bez obliczeń równoległych ostateczną prognozę (o akceptowalnej wiarygodności) otrzymalibyśmy zbyt późno.

 

Typowe komputery umożliwiające ten sposób obliczeń są bardzo drogie, i zlokalizowane w Centrach Superkomputerowych. Niestety ze względu na „produkcyjny” charakter tych jednostek, udostępnianie mocy obliczeniowych, prowadzenie badań w obszarze „czystej” informatyki jest w nich bardzo utrudnione, a nawet niemożliwe. Prace te wymagają bowiem ciągłego dostępu do zasobów sprzętowych i programowych umożliwiających weryfikację i implementację opracowywanych modeli teoretycznych co może skutkować „awariami” systemu. Alternatywnym rozwiązaniem jest wykorzystanie zespołu komputerów połączonych lokalną siecią komputerową. Jest to niezawodny, efektywny, a zarazem jeden z najtańszych sposobów realizacji skomplikowanych obliczeń. Kolejnym krokiem jest połączenie ze sobą szeregu lokalnych konfiguracji tworzących klastry obliczeniowe w strukturę gridową.

 

Potencjalnie, przetwarzanie równoległe pozwala na zwielokrotnienie wydajności przy minimalnych kosztach (w stosunku do kosztów zaprojektowania nowego, szybszego procesora sekwencyjnego). Popularne w komputerach osobistych są procesory wielordzeniowe, w ostatnich latach na znaczeniu zyskuje również wykorzystywanie procesorów graficznych (GPU) do obliczeń równoległych, które za cenę porównywalną z przeciętnym CPU pozwalają na osiągnięcie nawet stukrotnych przyspieszeń dla wybranych algorytmów.

 

Niestety, przetwarzanie równoległe pociąga za sobą szereg wyzwań. Nie wszystkie rodzaje problemów mogą być zrównoleglone, a czasami zrównoleglanie jest nieopłacalne z przyczyn technicznych. Pisanie programów równoległych wymaga ponadto innego podejścia czy też sposobu myślenia o zagadnieniu, które dla wielu programistów przyzwyczajonych do tworzenia aplikacji sekwencyjnych jest nieintuicyjne. Przetwarzanie równoległe jest z natury bardziej skomplikowane, pojawiają się zjawiska niewystępujące w programowaniu sekwencyjnym, takie jak wyścig, potrzeba synchronizacji dostępu do danych czy narzuty związane z komunikacją jednostek przetwarzających, a także bardziej subtelne efekty, związane np. ze spójnością pamięci przy wykorzystywaniu cache czy niedeterministycznością obliczeń zmiennoprzecinkowych.

 

Programowanie równoległe jest zatem zagadnieniem złożonym i niezmiernie ważnym, szczególnie w czasach, kiedy procesory praktycznie przestały przyspieszać i zgoła jedyną metodą podnoszenia  wydajności stało się zwiększanie liczby jednostek przetwarzających. Dlatego konieczne jest edukowanie studentów informatyki w tej dziedzinie.

 

W pracy przedstawione zostaną nasze pozytywne i negatywne spostrzeżenia dotyczące kursu „Wstęp do przetwarzania równoległego i rozproszonego” prowadzonych na Wydziale Informatyki i Zarządzania Politechniki Wrocławskiej, w tym wnioski związane z wykorzystaniem klastra Cumulus wykorzystywanego podczas zajęć laboratoryjnych. Zaprezentujemy przykładowy problem rozwiązywany na zajęciach laboratoryjnych wskazując na problemy jakie wystąpiły oraz sposób ich rozwiązania. Przedstawimy wnioski i sugestie dotyczące sposobu nauczania programowania równoległego na wydziale.

 

 

18.  Projektowanie sieciowych serwisów przedmiotowych

w budowie systemów interaktywnej komunikacji bezpośredniej

Łukasz Iwański

Studenckie Koło Naukowe WOD, Politechnika  Poznańska

 

Punktem wyjścia organizacji struktur interaktywnej komunikacji bezpośredniej i syntezy   międzysieciowych serwisów informacyjnych: IKM-MSI jest konsolidacja  środowiska rozproszonych serwerów i wirtualna integracja zasobów cyfrowych. Możliwa jest  budowa infrastruktury informacyjnej i komunikacyjnej środowiska komunikacji na wpół (semi) bezpośredniej opartej na międzysieciowych serwisach informacyjnych:  KsBO-MSI. 

Usługi infrastruktury informacyjnej i komunikacyjnej  konsolidowanych pamięci serwerów pozwalają realizować „swobodny dostęp do informacji przedmiotowej w środowisku wirtualnie archiwizowanych zasobów”.

 

Organizacja strukturalna i opis własności strukturalnych systemów IKM-MSI są podstawą budowy różnorodnych wirtualnych systemów informacji przedmiotowej: wiedzy osobowej, tematycznej zespołowej, czy także informacji przedmiotowej pozyskiwanej i przekazywanej w środowisku publicznych systemów informatycznych, informacji przedmiotowej pozyskiwanej i przekazywanej w środowisku tworzonych coraz powszechniej wirtualnych organizacji – przedsiębiorstw wirtualnych.

 

 

19. Zasady tworzenia i wymiany zasobów cyfrowych

Dariusz Jarosławski

Studenckie Koło Naukowe WOD, Politechnika  Poznańska

 

W myśl definicji „zasady”, tworzenie i wymiana zasobów cyfrowych winny podlegać wypracowanym ustaleniom, które regulują te procesy. Jednakże po wnikliwym przeglądzie „stanu sztuki” i doświadczeniach w codziennej pracy inżyniera informatyki pojawia się nieodparte przekonanie o rozbieżnościach w podejściu do problematyki, zaś złe nawyki często stoją na przeszkodzie choćby tzw. „dobrym praktykom”, nie mówiąc już o standaryzacji. Dobrej jakości zasoby cyfrowe są składową wytworzonych obiektów cyfrowych (wyodrębnionych i zorganizowanych pod kątem umożliwienia ich wymiany i jak najlepszego wykorzystania) oraz metadanych, służących ich opisowi i zarządzaniu nimi. Dlatego w ramach interoperacyjności na wszystkich poziomach oraz uregulowań (m.in. prawnych) ustalanych na podstawie reguł gromadzenia i wymiany zasobów pomiędzy kooperującymi organizacjami i współpracującymi ludźmi, duży nacisk kładziony jest  obecnie na ustalenie zasad komputerowego przetwarzania informacji z zastosowaniem zaleceń praktycznych, które powstały jako masa krytyczna doświadczeń podczas tworzenia i organizowania cyfrowych kolekcji danych.
Szczególną uwagę poświęcono optymalizowanej konfiguracji środowiska narzędziowego wspomnianych procesów oraz właściwej parametryzacji zarówno potencjalnej konwersji analogowo-cyfrowej dokumentów źródłowych, jak i ewentualnych przekształceń postaci medialnej produktów cyfrowych pod kątem wymagań użytkowych. Środowisko takie powinno umożliwić nie tylko poprawne wytworzenie zasobu cyfrowego, ale również jego właściwe przetestowanie pod kątem zgodności z różnymi platformami oraz zachowanie do postaci dającej gwarancję późniejszego odtworzenia oraz dalszego rozwoju. Zapewnienie trwałości i użyteczności cyfrowych danych wymaga jednak opracowania strategii migracji oraz emulacji technologii ze względu na szybkie starzenie się sprzętu komputerowego oraz oprogramowania.
Podejście stwarzające szanse rozwojowi interaktywnej komunikacji, jak również zapobieżenia cyfrowym wykluczeniom w ramach różnorodności wykorzystywanych platform jest niezwykle istotne w sytuacji, gdy mamy do czynienia z gwałtownym rozwojem technologii społeczeństwa informacyjnego, który powoduje, że dotychczas pojmowane przez nas struktury przechowywania i udostępniania informacji przestają mieć racje bytu, ustępując formom określanym jako zbiorcze, niejednokrotnie rozproszone kontenery danych, których format wykracza poza tradycyjne rozumienie pliku komputerowego (pojmowanego jako jednorodny  uporządkowany zbiór danych o ściśle określonych właściwościach), zatem należy je traktować jako wirtualne przestrzenie informacyjne wspólnej organizacji działań.

 

 

20. Synteza oprogramowania systemów  koordynacji wymiany zasobów cyfrowych

w  wirtualnym środowisku  informacji

Wojciech Wasielewski

Studenckie Koło Naukowe WOD, Politechnika  Poznańska

 

Zarządzanie informacją odgrywa ważną rolę w budowie struktur interaktywnej komunikacji medialnej opartej na międzysieciowych serwisach informacyjnych: IKM-MSI. Wykorzystują doświadczenia oraz coraz to nowe techniki teleinformacyjne, tworzone struktury stają się coraz bardziej kompleksowe i intuicyjne.

 

Modelowanie odpowiednich struktur zarządzania przepływem informacji przedmiotowej ułatwia tworzenie aplikacji przeznaczonych do organizacji współdziałania. Mechanizmy zarządzania informacją są głównymi składowymi nowych architektur systemów wirtualnej integracji zasobów cyfrowych realizowanych w środowisku partnerskich zasobów danych: architektur P2P, budowy różnorodnych wirtualnych systemów informacji przedmiotowej (osobowej, zespołowej tematycznej itd.).

 

Z pewnością dobrym rozwiązaniem w budowie wirtualnych systemów informacji przedmiotowej jest korzystanie z usług infrastruktury informacyjnej i komunikacyjnej, konfigurowanej poprzez konsolidację serwerów archiwizacji zasobów cyfrowych i ich wirtualną integrację, opartą np. na rozwiązaniach SUN MicroSystems oraz VMware (wg rozwiązań proponowanych przez Vector On-Line – Poznań wraz DNS Polska – Kraków). Budowana w oparciu o taką architekturę infrastruktura IKM-MSI pozwala realizować  środowisko wzajemnej (interaktywnej) wymiany zasobów danych.

 

Implementacja oprogramowania aplikacji zarządzania przepływem informacji polega na stosowaniu odpowiednich technik. Prosty i czytelny interfejs użytkownika oparty o sieć WWW umożliwia zdalny dostęp do zasobów systemów IKM-MSI. Zdalny dostęp do zasobów cyfrowych ułatwiają tez interfejsy systemów operacyjnych. W koordynacji wykorzystuje się protokół HTTP oraz  własności strukturalne oraz dynamiczne modeli hipertekstowej organizacji wirtualnie integrowanych zasobów cyfrowych – dokumentów niezbędnych w kreowaniu różnych kategorii informacji przedmiotowej. Korzystanie z języków HTML, PHP i innych może zapewniać rozszerzalność budowanych systemów koordynacji przepływu informacji, gdy pojawią się nowe usługi (serwisy) informacyjne.

 

Odpowiednio zaprojektowany system IKM-MSI, oparty o solidne rozwiązanie serwerowe wraz z implementacją oprogramowania zapewniającego ciągłe swoje udoskonalanie, daje pewność odpowiedniej koordynacji wymiany zasobów bez konieczności kompleksowej rekonfiguracji całego systemu.

 

 

21. Prezentacja internetowa współdziałania:Interaktywna witryna internetowa

Mariusz Niedźwiecki, Błażej Abramek

Studenckie Koło Naukowe WOD,

Dolnośląska Wyższa Szkoła Przedsiębiorczości i Techniki w Polkowicach

 

Dynamiczny rozwój usługi internetowej www spowodował, że mamy możliwość stosowania coraz doskonalszych metod tworzenia witryn internetowych. Powstają nowe narzędzia programistyczne, które w znacznym stopniu ułatwiają proces tworzenia jak i skracają jego czas. W celu zidentyfikowania aktualnie stosowanych technik, metod oraz zasad przeprowadzono analizę wybranych witryn internetowych uczelni wyższych w Polsce jak i zagranicą. Następnie przeprowadzono analizę porównawczą serwisów pod względem takich aspektów jak: kod źródłowy, zastosowane metody programistyczne, walory estetyczne.

 

Przeprowadzone analizy pozwoliły na wyszczególnienie technik programistycznych: HTML, JavaScript, Flash, CSS, PHP i MySQL oraz system zarządzania treścią CMS, który pozwala na tworzenie witryny internetowej z poziomu przeglądarki internetowej. CMS wydaje się być rozwiązaniem coraz częściej stosowanym przez wielu twórców stron internetowych. Spowodowane jest to przede wszystkim tym, że aktualizację oraz modyfikację witryny może przeprowadzać osoba nie posiadająca wykształcenia informatycznego. Z tego powodu powstaje wiele witryn informacyjnych, prezentacyjnych (np. strony miasta, jednostek administracyjnych), po rozbudowane serwisy tematyczne, sklepy internetowe, galerie zdjęć czy magazyny plików.

 

System CMS może być zastosowany wszędzie tam, gdzie redagującym osobom brakuje wiedzy programistycznej, gdzie najważniejsza jest treść i aktualność serwisu. CMS łączy w sobie cechy zaawansowanych funkcji z prostotą użytkowania. Różnica pomiędzy wykorzystaniem edytorów HTML a systemami CMS polega na tym, że edytory pozwalają redagować dokumenty zawierające ustaloną treść. Aby ją zmienić, trzeba zmodyfikować dokument z treścią strony poprzez edycję kodu źródłowego. W przypadku CMS nie tworzymy stron – zarządzamy treścią: dodajemy lub wskazujemy miejsca, z których należy ją pobrać, kopiujemy, przenosimy, usuwamy. Natomiast strony www generuje CMS na podstawie właściwości pozycji menu i pozycji modułów.

 

Połączenie skryptów PHP, Javascript z dodatkowym wsparciem technik CSS i HTML pozwala tworzyć przejrzyste i wygodne serwisy internetowego. Opracowane serwisy mogą być wykorzystywane w usprawnianiu wzajemnego przekazywania wiedzy w procesie nauczania. Praca zawiera przegląd aktualnie wykorzystywanych metod tworzenia witryn internetowych. Przeprowadzona analiza wybranych witryn internetowych funkcjonujących w kraju jak i poza granicami pozwoliła na wskazanie aktualnie stosowanych metod programistycznych. Analiza została zawężona do witryn uczelni wyższych. Poszczególne witryny porównano pod względem takich aspektów jak: rodzaj menu, zastosowane techniki programistyczne, animacje oraz kolorystyka. Zebrany materiał pozwolił na opracowanie wniosków. Podkreślić można to, że profesjonalna witryna  powinna wykorzystywać kilka technik programistycznych (HTML, FLASH, CSS, JavaScript, CMS)

 

W opracowaniu eksperymentalnym zostały zawarte informacje związane z różnymi metodami tworzenia stron WWW. Przeprowadzone analizy wybranych serwisów internetowych pozwoliły na wyciągnięcie wielu wniosków dotyczących skutecznego i prawidłowego tworzenia witryn internetowych. Istotne jest to że trudno wskazać jeden język bądź metodę opisu stron www, która spełniłaby oczekiwania programisty jak i odbiorcy. Optymalnym rozwiązaniem chwili obecnej jest wykorzystanie kilku technik jednocześnie. Interesującym i skutecznym rozwiązaniem może być zastosowanie systemu zarządzania treścią CMS. Jest to metoda która posiada wiele ograniczeń wynikających z daleko posuniętej automatyzacji, jednak pojawiające się ulepszenia i nowe wersje tego typu rozwiązań pozwalają stwierdzić, że te ograniczenia i niedogodności będą minimalizowane. Przykładem dynamicznie rozwijającego się systemu CMS Open- Source  może być Joomla.  Zastosowanie dotykowych technik takich jak Flash, JavaScript oraz ingerencja w kod źródłowy wygenerowany w CMS, powoduje , że witryna spełni oczekiwania najbardziej wymagających odbiorców. Dodatkowym atutem prezentowanego rozwiązania jest łatwa modyfikacja i skalowalność.

Przeprowadzona analiza, opracowane wnioski pozwoliły na podjęcie próby opracowania witryny internetowej Laboratorium WOD w Polkowicach. Do opracowania serwisu WWW wykorzystano system zarządzania treścią CMS Joomla w wersji 1.15. Przeprowadzono instalację i konfigurację oprogramowania joomla na serwerze WWW. Następnie przeprowadzono modyfikację kodu źródłowego, zmodyfikowano grafikę oraz zaimplementowano elementy wykonane w technologii JavaScript, Flash. Dodatkowo zaimplementowano system statystyk. Następnie serwis został poddany walidacji i testom. Wybrany zrzut ekranowy został zamieszczony poniżej. Zauważa się, że prezentowane rozwiązanie jest znaczną modyfikacją istniejących oraz poprzednich rozwiązań. Wynika to z podejmowanych prób poszukiwania nowych i coraz lepszych rozwiązań w zakresie tworzenia serwisów internetowych.

clip_image011

 

 

 

Wybrany obraz ekranowy witryny internetowej laboratorium WOD

 

 

 

22. Prezentacja medialna informacji przedmiotowej

Sylwester Jędruszkiewicz

Studenckie Kolo Naukowe WOD, Wyższa Szkoła Informatyki w Łodzi

 

Prezentacja informacji przedmiotowej odgrywa ważną rolę w strukturach interaktywnej komunikacji medialnej. Jednak stworzenie prezentacji medialnej wymaga znajomości wielu zagadnień dotyczących montażu rysunków, obrazów, dźwięku, tworzenia animacji, a także wzbogacania prezentacji medialnej o składową medialną informacji, jaką jest dźwięk. Poprawna obróbka medialna informacji przedmiotowej (rysunku, obrazu, animacji, dźwięku) napotyka na szereg problemów realizacyjnych. Odpowiednią realizacją np. dźwięku i obrazu żądzą podobne mechanizmy (prawa fizyczne) jak w przypadku realizacji dźwięku na sprzęcie analogowym (filtracja grzebieniowa, powstawanie szumów, przesterowania przydźwięki, zakłócenia, brak konwersji do mono itp). Przy realizacji wideo powstaje z kolei niezgodność interfejsu, niedostateczne oświetlenie, brak stabilizacji kamery itp.

 

Do stworzenia prezentacji medialnej niezbędne jest odpowiednie środowisko narzędziowe. Można je podzielić na sprzętowe  i programowe. Ideą tworzenia prezentacji medialnej jest przetwarzanie danych, które w początkowej fazie pojawiają się jako obraz, tekst, rysunek, zdjęcia, film itp., następnie w procesie cyfryzacji zostają one zamienione na dane cyfrowe, a one ulegają przetworzeniu zgodnie z opracowywanymi scenariuszami prezentacji informacji. Dane cyfrowe mogą tworzyć m. in. uporządkowane klatki filmu lub animacje. Wtedy całość trzeba wypełniać ścieżką dźwiękową, która z kolei jest tworzona w oddzielnym toku czynności. Wszelkie słowo lektorskie, dźwięki ożywiające animację oraz muzyka podlegają cyfryzacji na dane cyfrowe i przetworzeniu. Dzięki odpowiednim narzędziom ścieżka wideo i dźwięk stają się jednym integralnym utworem. Implementacja środowiska narzędziowego polega na stosowaniu różnych technik i metod prezentacji.

 

Jako uwieńczenie syntezy metod i technik wideo oraz realizacji dźwięku opracowano m. in. krótkometrażówki pt.  Stop przemocy wobec dzieci!; Atrakcyjność problemów KIO i inne. Wykorzystuje się nieruchomy obraz jako animację z wykorzystaniem metody rozmycia, tworząc tym samym efekt głębi. Synchronizacja dźwięku i obrazu pozwala na tworzenie nowych obiektów. Rola dźwięku nie ogranicza się tylko do tworzenia tła, ale tworzy nastrój i jest zapowiedzią nadchodzącej sceny (por.: Stop przemocy wobec dzieci!). Prezentacja medialna jest również nośnikiem informacji (por. prezentacja medialna problematyki KIOD, relacji z posiedzenia II Międzyuczelnianej Konferencji Naukowej Studentów  i X  Konferencji Okrągłego Stołu – KOS: Polska w drodze do społeczeństwa informacyjnego), pełniąc rolę reporterską i publicystyczną. Głównym naciskiem jest tutaj rola informacji oraz rola i misja mediów, jako środka masowego przekazu i sens komunikacji medialnej.

), pełniąc rolę reporterską i reklamową.

 

Prezentacja medialna swymi korzeniami sięga pokazu „slajdów” za pomocą rzutnika. Wówczas podstawowym źródłem informacji był tekst, rysunek, fotografia i znak graficzny (różnego rodzaju strzałki, logotypy itp.).  Wszelkie rysunki, fotografie zdjęcia i tekst po zaimportowaniu do programu PowerPoint tworzy znaną wszystkim prezentację medialną (poziom I).

 

Użycie tych samych obiektów w edytorze wideo lub w programie do animacji tworzy prostą animację mającą jeszcze cechy pokazu „slajdów” (poziom II).

 

Zapis ścieżki z komentarzem lektora i wprowadzenie do prezentacji efektów dźwiękowych stwarza już dość zaawansowany przekaz (poziom III). Dodatkowym atutem takiej prezentacji jest możliwość stworzenie własnej muzyki, której realizacja może mieć trzy grupy, muzyka generowana (midi), muzyka samplowana (z próbek dźwiękowych „sampli”) oraz muzyka instrumentalna (do niej zalicza się również muzykę wokalną, jako, że głos jest również instrumentem i realizacja przebiega w podobnym toku realizacyjnym). Do tworzenia nagrań można stosować wszystkich sposobów jednocześnie, w zależności jakie nagrania tworzymy (poziom IIIa).

 

 

 


[1] Tematyka prezentowana przez Marka Adamowicza; uzupełniona jego opracowaniem pt. Integracja informacyjna przedsiębiorstw: Wybrane rozwiązania praktyczne.

 

Zobacz galerie zdjęć z wydarzenia:

{phocagallery view=categories|imagecategories=1|imagecategoriessize=0|hidecategories=9,1,5,6,2,3,7,8,4,10}

Maciej Skowronek
Maciej Skowronek

Leave a Comment