Kierunek Zarządzanie - Wyższa Szkoła Informatyki Stosowanej i Zarządzania WIT

Tematyka badań naukowych i prac rozwojowych na Wydziale Informatyki WSISiZ realizowanych, a także planowanych do realizacji na najbliższe lata, obejmuje następujące kierunki badawcze:

W latach 2009 -2014 realizowane były następujące zadania badawcze:

 

Nowe metody komputerowego wspomagania podejmowania decyzji w kontekstach wielokryterialnych

KIERUNEK BADAWCZY 1

Nowe metody komputerowego wspomagania podejmowania decyzji w kontekstach wielokryterialnych

Kierownik

prof. dr hab. inż. Ignacy Kaliszewski

Skład zespołu

prof. dr hab. inż. Ignacy Kaliszewski

Zadanie badawcze 1.1

2009

Komputerowe wspomaganie podejmowania decyzji w wielokryterialnych problemach decyzyjnych dużej skali


Streszczenie zadania

Problemy optymalizacji wielokryterialnej zostały wprowadzone w latach pięćdziesiątych ubiegłego stulecia (warunki optymalności Kuhna-Tuckera zostały oryginalnie sformułowane dla takich właśnie problemów) a następnie intensywnie badane poczynając do siedemdziesiątych z niesłabnącą do dnia dzisiejszego intensywnością. Wraz z rozwojem komputerów osobistych zainteresowania zastosowaniem opracowanych metodologii gwałtownie wzrosło.

Komputerowe wspomaganie podejmowania decyzji w wielokryterialnych problemach dużej skali napotyka jednak na istotne problemy związane ze złożonością i czasochłonnościach rozwiązywania. Problemem jest także dostępność pakietów optymalizacyjnych.

Stało to się inspiracją dla podjęcia badań nad opracowaniem uniwersalnej metodologii i metod pozwalających wyznaczać w takich zadaniach decyzje efektywne (w sensie Pareto) w sposób przybliżony z oszacowaniem od dołu i od góry na dokładność przybliżenia. Punktem wyjścia do tych badań była opracowana przez I. Kaliszewskiego metoda uzyskiwania takich oszacowań, jednak ciągle jeszcze w oparciu o rozwiązywanie zadań optymalizacyjnych metodami klasycznej optymalizacji (Kaliszewski I., Soft Computing for Complex Multiple Criteria Decision Making. Springer, 2006, autorskie tłumaczenie na język polski: Wielokryterialne Podejmowanie Decyzji; obliczenia miękkie dla złożonych problemów decyzyjnych, Wydawnictwa Naukowo-Techniczne, 2008; Kaliszewski I., A method of approximating Pareto sets for assessments of implicit Pareto set elements. Control & Cybernetics, 3, 2007, 367-381).

Rezultatem prowadzonych prac stało się opracowanie uniwersalnej metody pozwalającej stosować do wyznaczania oszacowań (zamiast metodami klasycznej optymalizacji) dowolnych heurystyk. Rozważano wstępnie możliwość wykorzystania obliczeń ewolucyjnych.

Publikacje

Rezultaty badań zostały opublikowane w artykułach, które ukazały się w roku 2009 i 2010.

Kaliszewski I. Miroforidis J., Multiple Criteria Decision Making: From Exact to Heuristic Optimization. In: Multiple Criteria Decision Making '09, red. T. Trzaskalik, T. Wachowicz, The University of Economics in Katowice, 2010, 113-120

Kaliszewski I., Miroforidis J., Multiple Criteria Decision Making: efficient outcome assessments with evolutionary optimization. Communications in Computer and Information Science, 35, 2009, 25-28

Zadanie badawcze 1.2

2010

Komputerowe wspomaganie podejmowania decyzji w wielokryterialnych problemach decyzyjnych dużej skali – aspekty algorytmiczne

Kierownik

prof. dr hab. inż. Ignacy Kaliszewski

Skład zespołu

prof. dr hab. inż. Ignacy Kaliszewski

Streszczenie zadania

Kontynuowano prace zapoczątkowane w roku poprzednim w aspekcie budowy uniwersalnych algorytmów pozwalających na szerokie stosowane opracowanej w roku poprzednim metody.

Podano algorytmy dla prowadzenia obliczeń według opracowanej metody, oparte na zasadzie obliczeń ewolucyjnych.

Zadanie badawcze 1.3

2011

Komputerowe wspomaganie podejmowania decyzji w wielokryterialnych problemach decyzyjnych dużej skali – aspekty algorytmiczne, integracja z interfejsem użytkownika

Kierownik

prof. dr hab. inż. Ignacy Kaliszewski

Skład zespołu

prof. dr hab. inż. Ignacy Kaliszewski

Streszczenie zadania

Prowadzono prace nad integracją opracowanych algorytmów z uniwersalnym interfejsem dla interaktywnych oddziaływań decydent – model.

Publikacje

Rezultaty badań zostały opublikowane w artykule, który ukazał się w roku 2012.

Kaliszewski I., J. Miroforidis, D. Podkopaev, Interactive Multiple Criteria Decision Making based on preference driven Evolutionary Multiobjective Optimization with controllable accuracy. European Journal of Operational Research, 216, 2012, 188–199

Zadanie badawcze 1.4

2012

Komputerowe wspomaganie podejmowania decyzji w wielokryterialnych problemach decyzyjnych dużej skali – metodologiczne i numeryczne problemy istnienia oszacowań górnych

Kierownik

prof. dr hab. inż. Ignacy Kaliszewski

Skład zespołu

prof. dr hab. inż. Ignacy Kaliszewski

Streszczenie zadania

Przedstawiono wykorzystanie opracowanej w latach poprzedniej metodologii dla zarządzania przydziałem samolotów do bramek w kontekście wielokryterialnym.

Podano metodę wyznaczania  konstrukcji zastępczych dla zadań nie posiadających w dziedzinie rozwiązań konstrukcji (analogów problemów dualnych) pozwalających na wyznaczanie oszacowań górnych.

Publikacje

Rezultaty badań zostały opublikowane w artykułach, które ukazały się w roku 2012.

Kaliszewski I., J. Miroforidis, Real and virtual Pareto set upper approximations, w: Multiple Criteria Decision Making '11, eds. T. Trzaskalik, T. Wachowicz, Wydawnictwo Uniwersytetu Ekonomicznego w Katowicach, 2012, 121-131.

Kaliszewski I., J. Miroforidis, On Interfacing Multiobjective Optimisation Models – the Case of the Airport Gate Assignment Problem. Proceedings of ATACCS’2012, 2nd International Conference on Application and Theory of Automation in Command and Control Systems, London, UK, 2012, 93=97.

Zadanie badawcze 1.5

2013

Nowe metody komputerowego wspomagania podejmowania decyzji –zastosowania w problemach decyzyjnych dużej skali

Kierownik

prof. dr hab. inż. Ignacy Kaliszewski

Skład zespołu

prof. dr hab. inż. Ignacy Kaliszewski

Streszczenie zadania

Podjęto prace nad sformułowaniem kompletnej, uniwersalnej i wyczerpującej metodologii pozwalającej wyznaczać w wielokryterialnych problemach decyzyjnych dużej skali decyzje efektywne (w sensie Pareto) w sposób przybliżony, z oszacowaniem od dołu i od góry na dokładność przybliżenia, w oparciu o obliczenia ewolucyjne.

Jednocześnie podjęto prace nad porównanie praktycznej przydatności klasycznych pakietów optymalizacji dla liniowych zadań optymalizacji całkowitoliczbowej i algorytmów opartych na obliczeniach ewolucyjnych w zadaniach wielokryterialnego wspomagania decyzji.

Publikacje

Rezultaty badań zostały opublikowane w artykule, które ukazały się w roku 2013 i 2014.

Ignacy Kaliszewski, Janusz Miroforidis, Primal–Dual Type Evolutionary Multiobjective Optimisation. Foundations of Computing and Decision Sciences, 38, 4, 2013, 267-275

Ignacy Kaliszewski, Janusz Miroforidis, Two-sided Pareto Front Approximations. Journal of Optimization Theory and its Applications, 162, 3, 2014, 845-855

Ignacy Kaliszewski, Janusz Miroforidis, Jarosław Stańczak. Decision Maker’s Preferences, Airport Gate Assignment Problem and Multiobjective Optimisation. Multiple Criteria Decision Making’ 13, Wydawnictwo Uniwersytetu Ekonomicznego w Katowicach, 84-100, 2013.

Rezultaty te były również prezentowane w ramach wykładów prowadzonych przez I. Kaliszewskiego na Uniwersytecie w Turku (Finlandia, maj 2012), w Instytucie Podstaw Informatyki PAN (kwiecień 2013) i na Tamkang University (Tajwan, październik 2013)

Zadanie badawcze 1.6

2014

Nowe metody komputerowego wspomagania podejmowania decyzji – zastosowania

(plan na 2014 r.)

Kierownik

prof. dr hab. inż. Ignacy Kaliszewski

Skład zespołu

prof. dr hab. inż. Ignacy Kaliszewski

Plan prac badawczych

Plan pracy na rok 2014 zakłada prowadzenie prac mających na celu zastosowanie opracowanej metodologii w  różnych praktycznych zastosowaniach.

Kontynuowane będą prace dla porównanie praktycznej przydatności klasycznych pakietów optymalizacji dla liniowych zadań optymalizacji całkowitoliczbowej i algorytmów opracowanych na bazie prowadzonych badań w okresie 2009-2013, opartych na obliczeniach ewolucyjnych w zadaniach wielokryterialnego wspomagania decyzji.

Zastosowania teleinformatyki w metodach i technikach współczesnego zarządzania organizacją

KIERUNEK BADAWCZY 2

Zastosowania teleinformatyki w metodach i technikach współczesnego zarządzania organizacją

Kierownik

dr inż. Jan Maciejewski

Skład zespołu

dr inż. Jan Maciejewski, dr Włodzimierz Kuzak

Zadanie badawcze 2.1

2009

Praktyczny aspekt wykorzystania platform informatycznych w procesach decyzyjnych jako czynnik zwiększenia efektywności zarządczej we współczesnych organizacjach

Kierownik

dr inż. Jan Maciejewski

Skład zespołu

dr inż. Jan Maciejewski, dr Włodzimierz Kuzak

Streszczenie zadania

Z praktycznego punktu widzenia w zarządzaniu przedsiębiorstwem teleinformatyka stała się podstawowym czynnikiem dynamicznego rozwoju nowych metod i technik nie tylko wspomagania decyzyjnego dla kadry menedżerskiej ale przede wszystkim czynnikiem kształtowania efektywnych procesów zarządczych tak niezbędnych do kreowania strategii biznesowych. Systemy klasy ERP, CRM, SCM  jak i wiele innych klas systemów  wyposażonych w bazy wiedzy, hurtownie danych oraz narzędzia Business Intelligence czy DataMinig  pozwalają na szybkie i wielowymiarowe analizy i raportowanie tak niezbędne do efektywnych decyzji. Pozwalają zatem na  opracowanie bardziej zaawansowane procedur, które mogą być również wykorzystane do celu analizy ryku i jego otoczenia. Tematem prac badawczych było dokonanie przeglądu zaawansowanych metod jakie sa niezbędne w procesach zarządczo - decyzyjnych i które mogą być wykorzystane w praktyce zarządzania. Przeanalizowano możliwość wykorzystania do tego celu procedur jakimi charakteryzują się systemy klasy DSS i EIS oraz procedur sterowania procesami zarządczo - decyzyjnych. Szczególną uwagę zwrócono na wykorzystanie powszechnie przyjętych na rynku standardów w zakresie wdrożeń systemów klasy ERP poprzez wykorzystanie parametrów jakościowych poszczególnych metodyk zarządzania projektami informatycznymi

Publikacje

Podsumowaniem realizowanych prac był artykuł pt. „Teleinformatyka w procesach decyzyjnych - praktyczny aspekt wykorzystania na bazie przedsiębiorstwa produkcyjnego" przedstawiany w pracy zbiorowej pod redakcją W. Szczepkowskiego i wygłoszony na seminarium naukowym w Jachrance - konferencja ABG Centrum Promocji Biznesu S.C., maj 2009

Zadanie badawcze 2.2

2010

Systemy teleinformatyczne w zastosowaniach analizy rynku finansowego z wykorzystaniem metod  controllingu operacyjnego  w zakresie kształtowania strategii rozwoju

Kierownik

dr inż. Jan Maciejewski

Skład zespołu

dr inż. Jan Maciejewski, dr Włodzimierz Kuzak

Streszczenie zadania

Tematem prac badawczych była analiza istniejących rozwiązań dotyczących projektowania platform systemów informatycznych wspomagających procesy zarządcze w sferze rynku finansów i przedsiębiorstw wykorzystujących metody controllingu operacyjnego - wykorzystanie controllingu kosztów, metodę zarządzania kosztami ABC jak i metodę BSC - zrównoważona kartę wyników gdzie poprzez instrumenty informatyczne tworzone są centra zysków, analizy ryzyka jak i centra przychodów.

Publikacje

W wyniku prowadzonych rozważań w tym względzie  powstały dwa artykuły opublikowane w zeszytach Współczesne Problemy Zarządzania  -  controlling finansowy w strategii rozwoju współczesnej organizacji, Numer 1/2009 oraz Proces Due Diligence elementem weryfikacji finansowo- prawnej podmiotu gospodarczego, Numer 1/2010

Zadanie badawcze 2.3

2011

Paradygmaty współczesnego zarządzania w kontekście wykorzystania instrumentów informatycznych w nowych metodach i technikach zarządzania

Kierownik

dr inż. Jan Maciejewski

Skład zespołu

dr inż. Jan Maciejewski, dr Włodzimierz Kuzak

Streszczenie zadania

Kontynuowano prace jak wykorzystać paradygmaty współczesnego zarządzania do zwiększenia efektywności zarządczej a tym samym jak wykorzystać technologie w nowych metodach i technikach zarządzania. Zdaniem P. F. Druckera uważa się że do nowych paradygmatów w dziedzinie zarządzania zaliczyć należy takie kwestie które w istotny sposób wpływają na jakość procesów zarządczych. Klasyczny paradygmat wg wspominanego już P.F. Druckera jest przeszkodą w dalszym rozwoju zarządzania, jako nauki i praktyki zarządzania, dużych rozbieżności zachodzących między teorią a praktyką bowiem przedstawia on cztery aspekty podstaw współczesnego zarządzania paradygmatu którymi są: potrzeby klienta, jakość, ujęcia systemowe oraz działalność innowacyjna i wiąże je w układzie nowoczesnej koncepcji zarządzania w której w danym przedsiębiorstwie nie widzimy klienta, jako „dostarczyciela” zasobów finansowych, ale jako ważne ogniwo współpracy biznesowej. Należy do niej ścisła współpraca klienta, rozpoznawanie jego wymagań ciągle doskonaląc produkt, za który klient chciałby zostawić pieniądze.  Realizowano analizę tzw. OKA KOMPETENCJI wyodrębniając trzy tak istotne człony - kompetencje behawioralne- przywództwo, zaangażowanie, motywacja asertywność, kreatywność itp., kompetencje techniczne - wymagania i cele, praca zespołowa, ryzyko itd. oraz kompetencje kontekstowe - wdrożenie systemu zarządzania, orientacja na projekty programy, finanse, itp.. Aby przedsiębiorstwo dalej się rozwijało, przetrwało oraz odnosiło sukcesy w nowych warunkach, niezbędne jest opracowanie nowych zasad zarządzania nim. Zarządzanie jest narzędziem, które ma umożliwić osiągniecie tego sukcesu. Zysk ustępuje miejsca nowej postawie głoszącej, że „satysfakcje klienta i spełnienie jego oczekiwań” to podstawy dynamiki rozwoju. Analiza funkcjonalna kliku analizowanych przedsiębiorstw wykazała, że instrumentarium informatyczne jest istotnym czynnikiem zwiększenia efektywności zarządczej i czynnikiem dynamizującym stosowania nowych metod i technik zarządzania. Dlatego też systemy klasy ERP jak CRM są tak istotne jako kompleksowe kompendia informacyjne do usprawnienia procesów zarządczo - decyzyjnych w aspekcie  efektywności i skuteczności klasy menedżerskiej.

Publikacje

Efektem tych badań i analizy jest opracowanie założeń dotyczących metodyki wdrażania projektów informatycznych we współczesnych organizacjach z wykorzystaniem metody Business Process Reenginereering przedstawiona na konferencji GigaCom - czerwiec 2011

Zadanie badawcze 2.4

2012

Analiza platform zarządzania relacjami z klientami  – CRM strategia i technologia

Kierownik

dr inż. Jan Maciejewski

Skład zespołu

dr inż. Jan Maciejewski, dr Włodzimierz Kuzak

Streszczenie zadania

Realizowano prace dotyczące analizy platform programowych aplikacji CRM, wykazano istotny wpływ technologii informatycznych na współczesne wyzwania zarządzania marketingowego w tym przede wszystkim interaktywność. Analizowano nowe podejście do zarządzania marketingowego  zwane przez Philipa Kotlera, Hermawana Kartajaya, Iwana Setiawana  - Marketingiem 3.0.  a więc Dobry produkt? Zadowolony klient? Spełniony człowiek!”, opisane w publikacji  MT Biznes, Warszawa 2011.

Marketing 3.0 wprowadza szerokie, holistyczne spojrzenie na klienta. W tej koncepcji klient jest człowiekiem wyznającym konkretne wartości, którego można traktować jako rzeczywistego partnera. Już od dłuższego czasu wiele firm opiera swoje strategie PR na wartościach i działaniach prospołecznych, jednak w marketingu 3.0 wartości muszą leżeć u podstaw całej organizacji i przenikać jej kulturę. Począwszy od 2000 roku technologia informacyjna przenikała i penetrowała główne rynki, aby następnie przekształcić sie w coś, co nazywamy obecnie technologią nowej fali. Technologia nowej fali pozwala na łączenie sie i interaktywność jednostek i grup. Składają sie na nią trzy podstawowe elementy - tanie i powszechnie używane komputery i telefony komórkowe jako media informacyjno - komunikacyjne, niskie koszty połączeń internetowych i coraz bardziej dostępne otwarte oprogramowanie. Wynika z tego, że konsumenci są dobrze poformowani i mogą bez problemu dokonywać porównań kilka podobnych ofert.

Publikacje

Z przeprowadzonych analiz i potwierdzenia praktyką menedżerską powstał artykuł Customer Relationship Management – strategia biznesowa i technologia informatyczna. Współczesne problemy Zarządzania Nr 1/2012

Zadanie badawcze 2.5

2013

Technologia CRM w strategii biznesowej współczesnej organizacji konkurującej na ryku

Kierownik

dr inż. Jan Maciejewski

Skład zespołu

dr inż. Jan Maciejewski, dr Włodzimierz Kuzak

Streszczenie zadania

Kontynuowano prace rozpoczęte w 2012 r. Skoncentrowano się na analizie wartości klienta w świetle konkurencyjności firmy oraz jakości obsługi klientów poprzez budowanie konkurencyjności firmy na bazie efektywnej aplikacji interaktywnej CRM, której zadaniem jest sygnalizacja występowania zależności pomiędzy kolejnymi obserwacjami procesów zachodzących na ryku jak i zmian w zachowaniach klientów zarówno detalicznych jak i instytucjonalnych. Badania dotyczyły także wpływu zmian stylu życia konsumentów na migrację kapitału a także badanie zależności migracji klientów a migracji wartości przedsiębiorstwa. Prace dotyczyły także efektywnego zarządzania wiedzą o rynku i klientach pozwalając na jedno wspólne repozytorium wiedzy - jedna wersja prawdy, możliwość automatyzacji wybranych procesów biznesowych, Definiowania i utrzymywania korporacyjnego zbioru pojęć biznesowych i technicznych oraz integracje wiedzy z różnych źródeł (osoby biznesowe, techniczne i systemy informatyczne)

Zrealizowano studium przypadku z firmą Process Renewal Group Polska  na temat -  od architektury procesów do wymagań funkcjonalnych. Badania realizowane były za pomocą ankiet jak i wywiadów środowiskowych, wykorzystując do opisu zależności zarówno elementy statystyki ilościowej jak i jakościowej. Wyniki prac wykorzystano do opracowania publikacji przyjętej do druku w wydawnictwie Agenda konferencji GigaCom.

Publikacje

Referaty tych zagadnień zostały przedstawione na następujących seminariach konferencyjnych - Wartość klienta: Analiza wartości klienta w świetle konkurencyjności firmy  - Jachranka k/Warszawy, czerwiec 2013 r. Maciejewski J.:, Zarządzanie Wartością Klienta w strategii biznesowej Customer Relationship Management, Obsługa klientów: Budowanie konkurencyjności firmy na bazie CRM /materiały konferencyjne/ Maciejewski J.:, konferencja ABG Centrum Promocji Biznesu S.C., maj Warszawa 2014 oraz CRM GigaCon: Zarządzanie projektami CRM - outsourcing CRM / materiały konferencyjne/ Maciejewski J.:, konferencja dotycząca analizy wdrożeń - specyficzne know-how w zakresie Customer Relationship Management, 15 listopada 2012 Warszawa

Zadanie badawcze 2.6

2014

Mobilne instrumenty informatyczne w zarządzaniu marketingowym

(plan na 2014 r.)

Kierownik

dr inż. Jan Maciejewski

Skład zespołu

dr inż. Jan Maciejewski, dr Włodzimierz Kuzak

Plan prac badawczych

Planuje się kontynuację prac rozpoczętych w 2013 r. Będą one skoncentrowane na analizie wykorzystania instrumentów mobilnych do kształtowania relacji z klientami poprzez stosowanie interakcji w procesie zarządzania wartością klienta. Stwierdzenie takiego faktu ma istotne znaczenie praktyczne, gdyż stanowi sygnał wskazujący na konieczność dostosowania kompendium informacji zarządczych w trybie interakcji dla potrzeb kadry menedżerskiej do sterowania procesem skomplikowanych obliczeń i raportowania usprawniającego procesy zarządczo - decyzyjne. Zostanie przeprowadzona analiza zastosowania w praktyce platformy integracyjnej (tradycyjnej i w chmurze) w celu automatyzacji i optymalizacji procesów biznesowych.

Pozwoli to wykazać, że instrumenty technologii mobilnych mają istotne znaczenie zwiększające efektywność procesów decyzyjnych.

Publikacje

Wyniki tych analiz przedstawiono w artykule opublikowanym Zeszytach Naukowych WZISiZ 2014, pt. Mobilny system zarządzania relacjami z klientami - e'CRM, potwierdzony praktycznymi aspektami  wykorzystania mobilności instrumentów teleinformatycznych CRM na konferencji naukowej - Kongres GIGACON 16 kwietnia w wystąpieniu konferencyjnym - materiały konferencyjne pt. Jak modelować procesy biznesowe - od architektury procesów do architektury biznesowej, a także artykuł pt. Mobilny system zarządzania relacjami z klientami - e'CRM  - opublikowany w 2014 roku w POSTĘPACH TECHNIKI przetwórstwa spożywczego - TECHNOLOGICAL PROGRESS in food processing -  ISSN 0867 -793X.

Wystąpienia (dr Jan Maciejewski, dr Włodzimierz Kuzak) z referatami na temat "Bezpieczeństwo przetwarzania danych w urządzeniach mobilnych" oraz "Cloud Portal Office – jako centralny element nowoczesnego biura z wykorzystaniem technologii SHARP".

Udział w konferencji GigaCon Summit 24-25 września 2014, Warszawa Stadion Narodowy na temat:   Bezpieczeństwo i niezawodność systemów Informatycznych we współczesnych instytucjach sektora bankowego.

Referat na temat "Bezpieczeństwo i ochrona zbiorów informacyjnych przed nieautoryzowanym dostępem do zasobów przechowywanych w chmurze - jak zbudować efektywne środowisko dla aplikacji wykorzystywanych przez firmę sektora finansowego.

Wystąpienie na konferencji organizowanej przez PAN - 24 września  2014 w ramach XIII Konferencji BOS - Towarzystwa Badań Operacyjnych i Systemowych na temat "Applying the ‘earned value’ methodology to evaluation of advancement of work on projects managed with universal methods" i opublikowanie w materiałach konferencyjnych.

Wspomaganie decyzji z wykorzystaniem teorii gier

KIERUNEK BADAWCZY 3

Wspomaganie decyzji z wykorzystaniem teorii gier

Kierownik

dr Irena Woroniecka-Leciejewicz

Skład zespołu

dr Irena Woroniecka-Leciejewicz

Zadanie badawcze 3.1

2009

Zastosowanie teorii gier do analizy interakcji decyzji władz monetarnych i fiskalnych

Kierownik

dr Irena Woroniecka-Leciejewicz

Skład zespołu

dr Irena Woroniecka-Leciejewicz

Streszczenie zadania

Badania podejmują problem wyboru policy-mix w kontekście teorii gier i wzajemnych interakcji decyzyjnych między władzami fiskalnymi (rządem) a monetarnymi (bankiem centralnym). Policy-mix stanowi w tym ujęciu kombinację polityki fiskalnej i monetarnej o określonym stopniu restrykcyjności/ekspansywności każdej z nich. Przedmiotem analizy jest gra między bankiem centralnym a rządem, zwana grą fiskalno-monetarną, ze skończoną liczbą strategii w zakresie polityki pieniężnej i budżetowej. Zakłada się, że władze fiskalne i monetarne podejmują decyzje samodzielnie, a stan równowagi Nasha w takiej grze utożsamiany jest z wyborem określonej kombinacji polityki budżetowej i pieniężnej.

Przedstawiona analiza stanowi kontynuację badań autorki (Woroniecka-Leciejewicz 2007-208) dotyczących problematyki wyboru policy-mix z wykorzystaniem gry fiskalno-monetarnej z kilku jakościowo różnymi strategiami w zakresie polityki pieniężnej i budżetowej, różniących się stopniem ich restrykcyjności / ekspansywności. Proponuje się przedstawienie sytuacji decyzyjnej w zakresie wyboru policy-mix jako dwuosobowej gry między bankiem centralnym a rządem. Jest to jednoetapowa gra o sumie niezerowej z pełną informacją. Każdy z graczy podejmuje decyzje samodzielnie, biorąc pod uwagę prawdopodobną reakcję drugiego gracza. Strategie władz fiskalnych oznaczają strategie polityki budżetowej – od skrajnie restrykcyjnej w pierwszym wierszu do skrajnie ekspansywnej w ostatnim. Jako miernik stopnia restrykcyjności/ekspansywności polityki fiskalnej przyjęto poziom deficytu budżetowego w relacji do PKB. Analogicznie strategie władz monetarnych oznaczają strategie polityki pieniężnej – od skrajnie restrykcyjnej w pierwszej kolumnie tablicy wypłat do skrajnie ekspansywnej w ostatniej, przy czym jako wyznacznik restrykcyjności/ekspansywności polityki monetarnej przyjęto wysokość realnej stopy procentowej. Wypłaty zostały zdefiniowane uproszczony sposób, przyjmując, że władze monetarne dążą do minimalizacji inflacji, a fiskalne do maksymalizacji tempa wzrostu PKB.

W zależności od przyjętych założeń dotyczących uwarunkowań koniunktury gospodarczej, przede wszystkim wpływu deficytu budżetowego na wzrost PKB, niezależnie działające władze monetarne i fiskalne dążą, zgodnie z równowagą Nasha, do wyboru restrykcyjnej polityki pieniężnej i ekspansywnej budżetowej (wariant A), bądź do wyboru obu restrykcyjnych polityk (wariant B). W wariancie A rozwiązanie wyznaczane przez stan równowagi może być Pareto-optymalne bądź nie, zależy to od założeń poczynionych odnośnie skuteczności polityki monetarnej i fiskalnej – w szczególnym przypadku dążenie do strategii dominujących może oznaczać wybór rozwiązania nieoptymalnego w sensie Pareto, analogicznie jak w dylemacie więźnia, wtedy lepszą decyzję jest w stanie zapewnić jedynie koordynacja obu polityk. W wariancie B stan równowagi gwarantuje najniższy poziom inflacji, inne rozwiązania dają wprawdzie możliwość zwiększenia tempa wzrostu gospodarczego, ale zawsze kosztem wyższej inflacji. Dlatego we wszystkich rozpatrywanych przypadkach równowaga stanowi rozwiązanie Pareto-optymalne. Zwrócono uwagę na interesujący przypadek, w którym, przy założeniu czystych wypłat: inflacja dla banku centralnego, tempo wzrostu PKB dla rządu, równowaga jest wprawdzie Pareto-optymalna, jednak gdyby jako funkcję wypłat przyjąć średnią ważoną z wagami przypisywanymi przez obu graczy odpowiednio celowi inflacyjnemu i koniunkturalnemu, to przy odpowiednim doborze wag istniałaby możliwość, że stan równowagi odzwierciedlający wybór kombinacji obu polityk o charakterze restrykcyjnym nie oznaczałby decyzji Pareto-optymalnej. Jak wskazują przeprowadzone symulacje, przy niesymetrycznych wagach preferujących cel koniunkturalny (wzrost PKB), lepszym rozwiązaniem może okazać się kombinacja restrykcyjnej polityki fiskalnej i ekspansywnej monetarnej.

Publikacje

Woroniecka-Leciejewicz I. (2010): Decision interactions of monetary and fiscal authorities in the choice of policy mix, the special issue Journal of Organisational Transformation and Social Change: „Corruption and Good Governance”, Intellect - Publishers of Original Thinking, UK, vol. 7 no 2, 189-210

Zadanie badawcze 3.2

2010

Analiza równowagi w na przykładzie gry fiskalno-monetarnej

Kierownik

dr Irena Woroniecka-Leciejewicz

Skład zespołu

dr Irena Woroniecka-Leciejewicz

Streszczenie zadania

Badania dotyczą analizy dwuosobowej gry między bankiem centralnym a rządem, zwanej grą fiskalno-monetarną, ze skończoną liczbą strategii w zakresie polityki pieniężnej i budżetowej, różniących się stopniem ich restrykcyjności/ekspansywności. Przeprowadzono analizę stanów równowagi w takiej grze w przypadku alternatywnych założeń dotyczących uwarunkowań koniunktury gospodarczej i skuteczności polityki monetarnej i fiskalnej, a także z uwzględnieniem różnych priorytetów banku centralnego i rządu w kształtowaniu polityki makroekonomicznej. Odmienne założenia znajdują odzwierciedlenie w inaczej zdefiniowanych wypłatach w grze, a w konsekwencji w stanach równowagi gry.

Przeprowadzono analizę stanów równowagi rozwiązań w takiej grze dla jednego z dwóch wariantów założeń dotyczących uwarunkowań koniunktury gospodarczej i skuteczności polityki monetarnej i fiskalnej (wariant A), a także z uwzględnieniem różnych priorytetów banku centralnego i rządu w kształtowaniu polityki makroekonomicznej. Odmienne założenia znajdują odzwierciedlenie w inaczej zdefiniowanych wypłatach w grze, a w konsekwencji w stanach równowagi gry. Rozważono w tym zakresie dwa przypadki: pierwszy, w którym przyjęto, że władze monetarne dążą do minimalizacji inflacji, a fiskalne do maksymalizacji tempa wzrostu PKB oraz drugi , w którym przyjęto, że władze monetarne i fiskalne kierują się minimalizacją odchyleń odpowiednio inflacji i tempa wzrostu PKB od wartości pożądanych.

W pierwszym przypadku niezależnie działające władze monetarne i fiskalne dążą, zgodnie z równowagą Nasha, do wyboru dominujących strategii - restrykcyjnej polityki pieniężnej i ekspansywnej budżetowej (wariant A). O ile w przypadku minimalizacji inflacji, władze monetarne dysponują strategią dominującą, którą jest polityka restrykcyjna, o tyle w przypadku minimalizacji odchyleń inflacji od wartości pożądanych, strategia dominująca nie istnieje - bank centralny wybiera stosunkowo restrykcyjną politykę monetarną, przy czym stopień jej restrykcyjności zależy od tego, jaką politykę fiskalną wybierze rząd. Im bardziej ekspansywna polityka fiskalna, tym bardziej restrykcyjną politykę pieniężną powinien w odpowiedzi zastosować bank centralny, aby uniknąć nadmiernej inflacji, przekraczającej cel inflacyjny. Dla wyższych wartości deficytu budżetowego pożądana wartość inflacji jest osiągana przy odpowiednio wyższych stopach procentowych. Analogicznie, gdy rząd prowadzi bardziej restrykcyjną politykę budżetową, bank centralny, dążąc do osiągnięcia celu inflacyjnego, wybierze mniej restrykcyjną, raczej neutralną politykę pieniężną z odpowiednio niższymi stopami procentowymi. O ile w przypadku, gdy optymalne strategie fiskalne rządu dla poszczególnych strategii monetarnych banku centralnego wybierane są w oparciu o kryterium maksymalizacji wzrostu gospodarczego, władze fiskalne dysponują strategią dominującą, którą jest ekspansywna polityka budżetowa, o tyle w sytuacji, gdy wybór optymalnych strategii fiskalnych dokonywany jest w oparciu o kryterium minimalizacji odchyleń wzrostu PKB od wartości pożądanych, strategia dominująca nie istnieje. Rząd wybiera stosunkowo ekspansywną politykę fiskalną, przy czym stopień jej ekspansji zależy od stosowanej polityki monetarnej. Im bardziej restrykcyjna polityka pieniężna, tym w odpowiedzi bardziej ekspansywna polityka budżetowa, ponieważ osiągniecie pożądanego tempa wzrostu przy wyższym poziomie stóp procentowych wyznaczanych przez bank centralny wymaga bardziej zdecydowanej, prowzrostowej polityki fiskalnej, charakteryzującej się wyższym deficytem budżetowym. I odwrotnie, w odpowiedzi na bardziej ekspansywną politykę pieniężną, rząd prowadzi odpowiednio mniej ekspansywna politykę fiskalną.

Podsumowując, dla odmiennych założeń dotyczących celów polityki fiskalnej i monetarnej, przyjmujących, że władze monetarne i fiskalne dążą do osiągnięcia pożądanych wartości, odpowiednio inflacji i tempa wzrostu gospodarczego, stan równowagi nie jest, jak poprzednio, wyznaczany przez strategie dominujące, gdyż takimi nie dysponuje ani rząd ani bank centralny. Nowy stan równowagi Nasha, usytuowany jest w innym miejscu tablicy wypłat niż stan równowagi wyznaczany przez strategie dominujące przy poprzednich wypłatach. Oznacza to, że władze dążące do równowagi w grze, zmieniają swoje decyzje w zakresie policy-mix. Następuje przesunięcie polityki fiskalnej ze zdecydowanie ekspansywnej w kierunku polityki o charakterze bardziej neutralnym, aczkolwiek w dalszym ciągu o znacznym stopniu ekspansji. Również w zakresie polityki monetarnej obserwuje się zmianę z polityki ekstremalnie restrykcyjnej w kierunku bardziej umiarkowanej, choć charakteryzującej się dość znacznym stopniem restrykcyjności.

Publikacje

Woroniecka-Leciejewicz I. (2010): Decision interactions of monetary and fiscal authorities in the choice of policy-mix, the special issue Journal of Organisational Transformation and Social Change: „Corruption and Good Governance”, Intellect - Publishers of Original Thinking, UK, vol. 7 no 2, 189-210

Woroniecka I. (2010): Równowaga w grze fiskalno-monetarnej a priorytety banku centralnego i rządu, w: Modelowanie Preferencji a Ryzyko ’09, Trzaskalik T. (red.), AE im. K. Adamieckiego, Katowice, 327-343

Woroniecka-Leciejewicz I. (2010): Analiza stanów równowagi w grze fiskalno-monetarnej ze skończoną liczba strategii, w: Kapitał społeczny i ludzki – społeczeństwo informacyjne – gospodarka – zarządzanie – informatyka, Owsiński J.W. (red.), Studia i materiały Polskiego Stowarzyszenia Zarządzania Wiedzą, tom 32, BOS’2010, Bydgoszcz, 49-61

Zadanie badawcze 3.3

2011

Wpływ priorytetów decydentów na wybór policy-mix w grze fiskalno-monetarnej

Kierownik

dr Irena Woroniecka-Leciejewicz

Skład zespołu

dr Irena Woroniecka-Leciejewicz

Streszczenie zadania

Badania dotyczyły analizy stanów równowagi gry ze skończoną liczbą strategii w zakresie polityki pieniężnej i budżetowej oraz wpływu priorytetów władz fiskalnych i monetarnych na stany równowagi i tym samym na wybór polityki makroekonomicznej. W tym zakresie poszukiwano stanów równowagi gry dla wypłat zdefiniowanych jako odchylenia mierników kondycji gospodarki narodowej: tempa wzrostu PKB i inflacji od wartości pożądanych odpowiednio przez rząd i bank centralny (kryterium minimalizacji odchyleń) przy zastosowaniu iteracyjnej metody eliminacji strategii zdominowanych, porównując uzyskane wyniki z przypadkiem dążenia do minimalizacji inflacji przez władze monetarne i maksymalizacji realnego wzrostu gospodarczego przez władze fiskalne.

Przeprowadzono analizę stanów równowagi z uwzględnieniem różnych priorytetów banku centralnego i rządu w kształtowaniu polityki makroekonomicznej. W przypadku, gdy wybór optymalnych strategii fiskalnych dokonywany jest w oparciu o kryterium minimalizacji odchyleń wzrostu PKB od wartości pożądanych, nie istnieje dominująca strategia władz fiskalnych. Rząd wybiera stosunkowo ekspansywną politykę fiskalną, przy czym stopień jej ekspansji zależy od stosowanej polityki monetarnej. Im bardziej restrykcyjna polityka pieniężna, tym w odpowiedzi bardziej ekspansywna polityka budżetowa, ponieważ osiągnięcie pożądanego tempa wzrostu przy wyższym poziomie stóp procentowych wyznaczanych przez bank centralny wymaga bardziej zdecydowanej, prowzrostowej polityki fiskalnej, charakteryzującej się wyższym deficytem budżetowym. I odwrotnie, w odpowiedzi na bardziej ekspansywną politykę pieniężną, rząd prowadzi odpowiednio mniej ekspansywna politykę fiskalną.

Zmiana priorytetów władz monetarnych znajdująca odzwierciedlenie w zmianie pożądanych wartości inflacji powoduje przesunięcie optymalnych strategii pieniężnych: w kierunku bardziej ekspansywnych polityk monetarnych w przypadku łagodzenia priorytetów banku centralnego i tym samym podwyższania celu inflacyjnego lub w kierunku bardziej restrykcyjnych polityk pieniężnych pod wpływem ustalenia nowego celu inflacyjnego na niższym, bardziej restrykcyjnym poziomie. Również zmiana priorytetów w ramach polityki fiskalnej znajdująca odzwierciedlenie w zmianie pożądanych wartości tempa wzrostu PKB powoduje przesunięcie optymalnych strategii budżetowych odpowiednio w kierunku bardziej ekspansywnej polityki fiskalnej na skutek wyznaczenia ambitniejszych celów w zakresie wzrostu gospodarczego bądź w kierunku bardziej restrykcyjnej polityki budżetowej w przeciwnym przypadku. Pod wpływem zmian priorytetów władz fiskalnych i monetarnych, zmianie ulega również usytuowanie stanu równowagi Nasha w grze.

Reasumując, wybór polityki pieniężnej zależy od stosowanej przez rząd polityki fiskalnej oraz od priorytetów banku centralnego w prowadzeniu polityki monetarnej. Im bardziej ekspansywna polityka fiskalna, tym, ceteris paribus, w odpowiedzi wybierana jest bardziej restrykcyjna polityka pieniężna (i vice versa). Ponadto priorytety banku centralnego skłaniające do wyboru niższego, tj bardziej restrykcyjnego celu inflacyjnego, dodatkowo przyczyniają się do zwiększenia stopnia restrykcyjności w polityce pieniężnej. Analogicznie wybór polityki fiskalnej zależy z jednej strony od realizowanej przez bank centralny polityki monetarnej oraz od priorytetów rządu w zakresie polityki budżetowej – z drugiej. Im bardziej ekspansywną politykę pieniężną realizują władze monetarne, tym, ceteris paribus, władze fiskalne skłaniają się do wyboru bardziej restrykcyjnej polityki budżetowej. Również priorytety rządu dotyczące celów w zakresie wzrostu gospodarczego wpływają na stopień restrykcyjności/ekspansywności wybieranej polityki budżetowej – im, ceteris paribus, wyższy planowany przez rząd wzrost PKB, tym w odpowiedzi bardziej ekspansywna polityka budżetowa, zaś zgoda władz fiskalnych na słabszy wzrost PKB implikuje zwiększenie restrykcyjności polityki budżetowej i ograniczenie deficytu.

Analizę stanów równowagi w grze fiskalno-monetarnej ze skończoną liczbą strategii przeprowadzono również  dla alternatywnych założeń dotyczących uwarunkowań koniunktury gospodarczej, przede wszystkim wpływu deficytu budżetowego na wzrost PKB.

Ponadto podjęto próbę analizy powyższej gry monetarno-fiskalnej rezygnując z założenia o liniowych zależnościach między miernikami stanu gospodarki (wzrostu gospodarczego i inflacji) a instrumentami policy-mix: deficytem budżetowym w relacji do PKB i realną stopą procentową). Wykorzystując twierdzenie i wzór Taylora, wyprowadzono formuły na wartości występujące w tablicy wypłat w grze dla nieliniowych zależności, a następnie przeprowadzono, analogicznie jak dla zależności liniowych, analizę stanów równowagi gry.

Publikacje

Woroniecka-Leciejewicz I. (2011): Analiza policy-mix z uwzględnieniem interakcji decyzyjnych między bankiem centralnym a rządem i ich priorytetów, Zeszyty Naukowe Wydziału Informatycznych Technik Zarządzania Wyższej Szkoły Informatyki Stosowanej i Zarządzania „Współczesne Problemy Zarządzania” No 1, Warszawa, 39-62

Zadanie badawcze 3.4

2012

Problem wyboru policy-mix w grze między bankiem centralnym a rządem z zastosowaniem zmodyfikowanej funkcji logistycznej

Kierownik

dr Irena Woroniecka-Leciejewicz

Skład zespołu

dr Irena Woroniecka-Leciejewicz

Streszczenie zadania

W ramach zadania badawczego w 2012r. uzyskano interesujące wyniki w tej dziedzinie uzupełniając teoretyczne rozważania zawarte w powyższych (wcześniejszych) publikacjach o analizę symulacyjną uwzględniającą różne warianty uwarunkowań koniunktury, w szczególności wpływu skuteczności polityki fiskalnej i monetarnej w oddziaływaniu na stan gospodarki, w tym na wzrost PKB i inflację. W tym celu zaproponowano zastosowanie zmodyfikowanej funkcji logistycznej do odzwierciedlenia oddziaływania instrumentów policy-mix na stan gospodarki w grze fiskalno-monetarnej z uwzględnieniem istotnych w tym kontekście własności funkcji i interpretacji parametrów. Wykonano obliczenia dla gry fiskalno-monetarnej z wykorzystaniem takiej funkcji logistycznej oraz przedstawiono pierwsze wyniki badań oraz ich interpretację. Zastosowanie zmodyfikowanej funkcji logistycznej pozwala uwzględnić specyfikę oddziaływania instrumentów polityki fiskalnej i monetarnej na stan gospodarki (w tym na dynamikę PKB i inflację) polegającą na ograniczonych możliwościach stosowania skrajnie restrykcyjnych bądź skrajnie ekspansywnych polityk i ich wpływu na gospodarkę. Instrumenty te są one skuteczne jedynie w pewnym przedziale wahań, poza nim ich skuteczność maleje. Oznacza to m.in., że możliwości obniżania inflacji poprzez stosowanie coraz bardziej restrykcyjnej polityki monetarnej są ograniczone, podobnie jak możliwości pobudzania wzrostu gospodarczego przez coraz bardziej ekspansywną politykę fiskalną.

Przedstawiono wstępne wyniki wskazując na możliwość istnienia różnych stanów równowagi Nasha w zależności od skuteczności oddziaływania instrumentów policy-mix, a także od priorytetów przyjętych przez rząd i bank centralny w kształtowaniu stabilizacyjnej polityki makroekonomicznej. Badania przeprowadzone w 2012r. koncentrują się na analizie gry fiskalno-monetarnej dla wariantu założeń A, w którym przyjęto, że wzrost deficytu budżetowego, ceteris paribus, powoduje przyspieszenie dynamiki PKB. Wariant ten wydaje się bardziej realistycznie odzwierciedlać wpływ polityki fiskalnej na możliwości wzrostu gospodarczego w krótkim okresie w porównaniu z wariantem B, w którym zakłada się ujemny wpływ deficytu budżetu państwa na wzrost gospodarczy. Ponadto założono, że władze monetarne dążą do pożądanego poziomu inflacji, tzw. celu inflacyjnego, a władze fiskalne – do osiągnięcia pożądanego (zaplanowanego) wzrostu PKB.

Publikacje

Woroniecka-Leciejewicz I. (2012): Problem wyboru policy-mix w grze fiskalno-monetarnej z zastosowaniem funkcji logistycznej, Studia i Materiały Informatyki Stosowanej, Tom 4, Nr 8, 2012, 29-38

Zadanie badawcze 3.5

2013

Optymalne strategie władz fiskalnych i monetarnych. Analiza symulacyjna

Kierownik

dr Irena Woroniecka-Leciejewicz

Skład zespołu

dr Irena Woroniecka-Leciejewicz

Streszczenie zadania

W ramach prac badawczych w 2013 r. przeprowadzono analizę symulacyjną policy-mix na podstawie gry fiskalno-monetarnej, w której władze fiskalne i monetarne podejmują decyzje o wyborze optymalnych strategii z punktu widzenia realizacji własnych celów  gospodarczych (pożądanych wartości dla dynamiki PKB i inflacji). Do odzwierciedlenia zależności między instrumentami polityki fiskalnej (deficytem budżetowym w relacji do PKB) i monetarnej (realną stopą procentową) a uzyskanymi w wyniku ich zastosowania efektami ekonomicznymi wykorzystano zmodyfikowaną funkcję logistyczną. Przyjęta metoda badawcza umożliwia uwzględnienie specyfiki wpływu tych instrumentów na koniunkturę, polegającej na ograniczonych możliwościach stosowania skrajnie restrykcyjnych bądź skrajnie ekspansywnych polityk i ich oddziaływania na stan gospodarki.

Badania symulacyjne miały na celu pokazanie wpływu zarówno parametrów funkcji logistycznej, jak i priorytetów władz fiskalnych i monetarnych na stan równowagi Nasha w grze utożsamiany z wyborem określonej kombinacji polityki budżetowej i pieniężnej. Na podstawie uzyskanych wyników przedstawiono analizę izokwant wzrostu PKB i izokwant inflacji pokazujących jakie alternatywne policies-mix (stanowiące kombinacje polityki fiskalnej i monetarnej o określonym stopniu restrykcyjności/ekspansywności) umożliwiają osiągnięcie przyjętej dynamiki PKB i założonego poziomu inflacji. Izokwanty te pozwalają zaobserwować rozwiązania Pareto-optymalne i rozwiązania bliskie optymalnym (z dopuszczalnym przedziałem wahań wokół wartości pożądanej).

Wyniki wskazują, że pod wpływem zmian priorytetów banku centralnego i rządu, i co za tym idzie, optymalnych strategii w zakresie polityki monetarnej i fiskalnej, zmianie ulega również usytuowanie stanu równowagi Nasha w grze, utożsamiane z wyborem policy-mix. Im bardziej restrykcyjne cele władz monetarnych, tzn. niższy cel inflacyjny, i im bardziej ambitne cele władz fiskalnych w zakresie dynamiki PKB, tym stan równowagi Nasha usytuowany jest bliżej skrajnie restrykcyjnej polityki pieniężnej i skrajnie ekspansywnej budżetowej. W miarę zmian priorytetów oznaczających łagodzenie wyznaczanych do realizacji celów policy-mix, stan równowagi przesuwa się w kierunku bardziej neutralnej polityki makroekonomicznej. Analizując wpływ zmian w priorytetach władz fiskalnych i monetarnych na przesunięcie optymalnych strategii i usytuowanie stanu równowagi Nasha wskazano również na możliwość wystąpienia przypadku, gdy w warunkach braku koordynacji nierealistycznie ustalone cele władz fiskalnych i monetarnych utrudniają osiągnięcie stanu równowagi i tym samym racjonalny wybór w zakresie policy-mix.

Publikacje

Woroniecka-Leciejewicz I. (2013): Optymalne strategie fiskalne i monetarne w grze ze zmodyfikowaną funkcją logistyczną. Analiza symulacyjna, referat na konferencję BOS’2014, opublikowany w materiałach konferencyjnych

Woroniecka-Leciejewicz I. (2013): Optimum strategies in a fiscal-monetary game. Simulation analysis, “Operations Research and Decisions”, w druku

Zadanie badawcze 3.6

2014

Analiza efektywności decyzji w obszarze policy-mix z wykorzystaniem teorii gier

(plan na 2014 r.)

Kierownik

dr Irena Woroniecka-Leciejewicz

Skład zespołu

dr Irena Woroniecka-Leciejewicz

Plan prac badawczych

Cel realizacji zadania: Celem badań jest efektywność  decyzji w obszarze policy-mix z wykorzystaniem teorii gier na podstawie analizy stanów równowagi Nasha,  Pareto-optymalności rozwiązań oraz wpływu priorytetów władz fiskalnych i monetarnych na wybór polityki makroekonomicznej. Uzyskane wyniki mogą stanowić asumpt do odpowiedzi na pytanie: czy i w jakich warunkach wybór policy-mix poprzez niezależne od siebie władze monetarne i fiskalne prowadzi do efektywnych ekonomicznie decyzji, a kiedy niezbędna jest koordynacja.

Przeanalizowanie stanów równowagi w grze fiskalno-monetarnej oraz Pareto-optymalności rozwiązań, które jest celem prac badawczych w 2014 r., może stworzyć podstawę do oceny korzyści i strat w przypadku niezależnego kształtowania polityki budżetowej i pieniężnej oraz w przypadku ich koordynacji. Planuje się przeprowadzenie szeregu badań symulacyjnych z wykorzystaniem powyższej gry ze skończoną liczbą strategii fiskalnych i monetarnych. Badania symulacyjne pozwolą na przeanalizowanie różnych przypadków gry: istnienia jednego stanu równowagi Nasha w grze utożsamianego z wyborem określonej kombinacji polityki budżetowej i pieniężnej, kilku równowag lub jej braku w zależności od przyjętych wartości parametrów oraz priorytetów władz fiskalnych i monetarnych.

Publikacje

Woroniecka-Leciejewicz I. (2014): Analiza strategii władz monetarnych i fiskalnych z wykorzystaniem teorii gier, artykuł przygotowywany do opublikowania w czasopiśmie „Ekonomista” lub „Bank i kredyt”

Woroniecka-Leciejewicz I. (2014): Wpływ instrumentów policy-mix na gospodarkę – ujęcie  modelowe, artykuł zgłoszony do Zeszytów Naukowych „Problemy współczesnego zarządzania” WITZ WSISiZ

Nowe metody statystycznego sterowania  jakością (kontynuacja kierunku badawczego z ubiegłych lat)
Metody statystyczne w analizie danych zależnych (nowy kierunek badawczy)

KIERUNEK BADAWCZY 4

Nowe metody statystycznego sterowania  jakością (kontynuacja kierunku badawczego z lat 2006-2008)

Kierownik

prof. dr hab. Olgierd Hryniewicz

Skład zespołu

prof. dr hab. Olgierd Hryniewicz

Zadanie badawcze 4.4

2009

Metody statystycznego sterowania jakością w przypadku nieprecyzyjnych danych

Kierownik

prof. dr hab. Olgierd Hryniewicz

Skład zespołu

prof. dr hab. Olgierd Hryniewicz

Streszczenie zadania

Metody statystycznego sterowania jakością zostały wprowadzone w przemyśle amerykańskim w latach dwudziestych ubiegłego stulecia. Od tego czasu znalazły one setki zastosowań w praktyce produkcyjnej. Od strony teoretycznej metody statystyczne stosowane w statystycznym sterowaniu jakością są przykładem zastosowania tzw. decyzji statystycznych. Podstawowym typem danych w statystycznym sterowaniu jakością są dane dotyczące atrybutów, uzyskane z zastosowaniem klasyfikacji alternatywnej (zgodny lub niezgodny z wymaganiami). W sytuacji kontroli procesów produkcyjnych taka klasyfikacja odpowiada rzeczywistym potrzebom. Sytuacja jest jednak inna, gdy ocena jakości jest dokonywana przez człowieka na podstawie jego nieprecyzyjnych percepcji. W tej sytuacji do podejmowania decyzji należy stosować metody uwzględniające nieprecyzyjność (rozmytość) danych statystycznych.

Publikacje

W ramach realizacji zadania opracowano artykuł „Hryniewicz O.: Statistical Decisions in Presence of Imprecisely Reported Attribute Data”, opublikowany w materiałach międzynarodowej konferencji INSTICC.

Zadanie badawcze 4.5 2010

Metody statystyczne w analizie danych nieprecyzyjnych

Kierownik

prof. dr hab. Olgierd Hryniewicz

Skład zespołu

prof. dr hab. Olgierd Hryniewicz

Streszczenie zadania

W klasycznych metodach statystycznych zakłada się, że dostępne dane są rozpatrywane jako dane dokładne, opisane liczbami całkowitymi lub rzeczywistymi. W praktyce okazuje się jednak, że ta dokładność jest wymuszona koniecznością wykorzystania znanych metod obliczeniowych. Powstaje więc konieczność opracowania nowych metod, przydatnych do analizowania danych nieprecyzyjnych.

Publikacje

W ramach realizacji zadania prowadzono prace nad podsumowaniem dotychczasowej wiedzy w zakresie metod statystycznej analizy danych nieprecyzyjnych. Rezultatem tych prac był artykuł „Gil M., Hryniewicz O.: Statistics with Imprecise Data” opublikowany w encyklopedii “Encyclopedia of Complexity and Systems Science, R.Meyers (Ed.) wydanej w 2009 przez renomowane wydawnictwo Springera, a także artykuł „Hryniewicz O.: On Joint Modelling of Random Uncertainty and Fuzzy Imprecision” opublikowany w pracy zbiorowej “ Coping with Uncertainty”. Robust Solutions, K. Marti, Y. Ermoliev, M. Makowski (Eds.), także opublikowanej przez wydawnictwo  Springera

KIERUNEK BADAWCZY 4

Metody statystyczne w analizie danych zależnych (od  2014 )

Kierownik

prof. dr hab. Olgierd Hryniewicz

Zadanie badawcze 4.1

2014

Analiza danych zależnych z wykorzystaniem metod eksploracji danych (data mining)

(plan na 2014 r.)

Kierownik

prof. dr hab. Olgierd Hryniewicz

Skład zespołu

prof. dr hab. Olgierd Hryniewicz

Plan prac badawczych

W analizie statystycznej danych pochodzących z różnych procesów występują często przypadki, gdy bezpośredni pomiar najważniejszych danych jest nieopłacalny lub w praktyce niemożliwy. W takich przypadkach bezpośredniej obserwacji podlegają pewne zmienne objaśniające, a wyniki takich obserwacji służą do predykcji wartości zmiennych będących zasadniczym przedmiotem zainteresowania. W przypadku gdy wartości zmiennych objaśnianych opisane są pewnymi etykietami proces predykcji jest równoważny znanemu z zagadnień eksploracji danych procesowi klasyfikacji.

Publikacje

W ramach realizacji zadania prowadzone będą badania mające na celu zbadać efektywność procedur klasyfikacji gdy związki pomiędzy zmiennymi objaśniającymi a zmienną objaśnianą są mocno nieliniowe, a ponadto występują silne wzajemne związki pomiędzy zmiennymi objaśniającymi.

Nowe metody analizy danych w ocenie efektywności i innowacyjności przedsiębiorstw

KIERUNEK BADAWCZY 5

Nowe metody analizy danych w ocenie innowacyjności i efektywności przedsiębiorstw

Kierownik

prof. dr hab. Tadeusz Baczko

Skład zespołu

prof. dr hab. Tadeusz Baczko, prof. dr hab. Anatol Pilyavskyy

Zadanie badawcze 5.1

2009

Metody eksperckie wykorzystujące dane ilościowe i jakościowe

Kierownik

prof. dr hab. Tadeusz Baczko

Skład zespołu

prof. dr hab. Tadeusz Baczko

Streszczenie zadania

Ocena poziomu innowacyjności na podstawie danych statystycznych jest przedmiotem zainteresowania wyspecjalizowanych zespołów badawczych na całym świecie. Wynikiem są standardy międzynarodowe zawarte w Oslo Manual przygotowany przez OECD i Eurostat . Wyzwaniem jest uwzględnienie danych jakościowych a w tym badań dotyczących przyszłości i odniesienia do nich dzisiejszych osiągnięć. Szczególną rolę w tym procesie pełnią metody typu foresight i struktury wiedzy, które powstały między instytucjami realizujących te projekty jak i ekspertami  w nich uczestniczących

Publikacje

W ramach realizacji zadania opracowano artykuł: Baczko T. „Od wizji rozwojowych do projektowania rzeczywistości. Polskie badania typu foresight”, w: Zeszyty Naukowe „Współczesne  Problemy Zarządzania”, listopad 2009 wydane przez Wyższą Szkołę Informatyki Stosowanej i Zarządzania pod auspicjami Polskiej Akademii Nauk

Zadanie badawcze 5.2

2009 - 2011

Comparative Analysis of the Efficiency and Productivity Changes in Ukrainian Banks

Kierownik

prof. dr hab. Anatol Pilyavskyy

Skład zespołu

prof. dr hab. Anatol Pilyavskyy

Streszczenie zadania

In these papers the non-parametric DEA method (Charnes, Cooper and Rhodes, 1978; Banker, Charnes and Cooper, 1984) is used for two aims. First, we measure efficiency of Ukrainian banks with DEA. Second, we use DEA to measure and decompose the Malmquist index in the analysis of productivity changes in Ukrainian banks (Malmquist, 1953; Fare et al., 1991, 1992). We assess efficiency and productivity changes of Ukrainian banks for the years 2005-2008. Note that as of late papers that apply this method to efficiency analysis and productivity changes of both branches of a bank (Pilyavskyy, Matsiv and Khoma, 2008, 2009), and the Ukrainian banks on the whole (Mertens and Urga, 2001; Kyj and Isik, 2008) have appeared.

Publikacje

A.Pilyavskyy, Yu.Matsiv (2009). Performance of Banks in Ukraine (2005 – 2008), Zeszyty Naukowe  „Współczesne Problemy Zarządzania”, Warszawa: Wyższa Szkoła Informatyki Stosowanej i Zarządzania, 2009, №1, 7 – 20

A.Pilyavskyy, Yu.Matsiv, (2010). An Analysis of the Efficiency and Productivity of Ukrainian Banks, Studia i Prace Uniwersytetu Ekonomicznrgo w Krakowie. (#11 Data Analysis Methods in Economics Research),  Kraków: Uniwersytet Ekonomiczny w Krakowie, 2010, №11, p. 91 – 106

A.Pilyavskyy, Yu.Matsiv, (2011). Efficiency and Productivity Changes in Ukrainian Banks, 2003-2006: Data Envelopment Analysis and Input-Output Specification, Modelowanie i prognozowanie zjawisk społeczno-gospodarczych. Pod redakcja J. Pociechy, Kraków: Akademia Ekonomiczna, 2011, p. 32-41

Zadanie badawcze 5.3

2010 - 2011

Rozmyte metody inteligentnej analizy danych przy wsparciu procesów decyzyjnych ekspertów oceniających poziom innowacyjności

Kierownik

prof. dr hab. Tadeusz Baczko

Skład zespołu

prof. dr hab. Tadeusz Baczko

Streszczenie zadania

Ważną rolę przy ocenie innowacyjności pełnią oceny  eksperckie.  Podstawą są opisy innowacyjnych produktów przygotowane przez przedsiębiorstwa oraz wybrane dane statystyczne dotyczące miejsca produktu w sprzedaży czy eksporcie . Tego rodzaju podejście wsparte dodatkowymi informacjami ilościowymi i jakościowymi pozwala tworzyć oceny innowacyjności oparte na wiedzy na poziomie podmiotów gospodarczych. Wyzwaniem jednak jest jak uwzględnić także pozostałe dane o podmiocie gospodarczym w ocenach eksperckich, szczególnie w sytuacji dostępności danych z obszaru rachunku strat i zysków, bilansów czy zatrudnienia oraz charakterystyk pozwalających na zaklasyfikowanie do określonych grup przedsiębiorstw oraz określania związków między nimi. Bardzo duże możliwości otwierają się w tym obszarze przy uwzględnieniu rozmytych metod inteligentnej analizy danych.

Publikacje

Prowadzone w tym obszarze badania zaowocowały m.in. w postaci publikacji:

Baczko T., Kacprzyk. J, Zadrożny S., Towards Knowledge Driven Individual Integrated Indicators of Innovativeness, w: „”Knowledge Based Intelligent Knowledge Advancements”, Jozefczyk J., Orski D. eds, IGI Global, 2011,

Baczko T., Kacprzyk. J, Zadrożny S. Towards a Human Consistent Analysis of Innovativeness via Linguistic Data Summaries and Their Protoforms, Advanced Dynamic Modeling of Economic and Social Systems, 2013, 91-107

Zadanie badawcze 5.4

2012

Analysis of the Cost Efficiency of Ukrainian banks

Kierownik

prof. dr hab. Anatol Pilyavskyy

Skład zespołu

prof. dr hab. Anatol Pilyavskyy

Streszczenie zadania

In our previous papers (see Pilyavskyy and Matsiv, 2009; Pilyavskyy et al., 2010) we used a non-parametric method of frontier analysis, namely Data Envelopment Analysis (DEA), while in this very paper we use one of the parametric approaches, i.e. stochastic frontier analysis (SFA). SFA is widely used for bank efficiency estimation in Central and Eastern Europe, in particular in Russia (Byelousova, 2009; Styrin, 2005; Peresetsky, 2010), Hungary (Hasan and Marton, 2003), Slovenia (Stavárek and Šulganová, 2009), Czech Republic (Weill et al., 2006). As to Ukraine, we are acquainted only with one paper devoted to efficiency measurement of Ukrainian banks using SFA (see Mertens and Urga, 2001). That is why we consider research in this direction quite vital. In this paper we propose to check whether:

  • cost-inefficiency is present in the Ukrainian banking system;
  • foreign banks are more efficient than the Ukrainian ones;
  • efficiency of Ukrainian banks depends on their size;
  • efficiency of Ukrainian banks somehow differs depending on their location

Publikacje

A.Pilyavskyy, Yu.Matsiv, O. Vovchak, (2012). Measuring Cost Efficiency of Ukrainian banks in 2008,  Comparative Economic Research Central and Easten Europe  v.,15, #4, p. 207-218

A.Pilyavskyy, Yu.Matsiv., O Vovchak. (2012). Cost Efficiency of Ukrainian banks. Does it makedifference?,  Zeszyty Naukowe „Współczesne Problemy Zarządzania”, Warszawa: Wyższa Szkoła Informatyki Stosowanej i Zarządzania, 2012, №1, 53 – 58

Zadanie badawcze 5.5

2013

Robust Estimation of Ukrainian Bank Efficiency

Kierownik

prof. dr hab. Anatol Pilyavskyy

Skład zespołu

prof. dr hab. Anatol Pilyavskyy

Streszczenie zadania

One of the most popular methods of frontier analysis is Data Envelopment Analysis (DEA).  It can be explained by a small number of assumptions DEA requires and by a possibility to use a set of inputs and outputs. However, despite the fact that DEA is a non-parametric method, it has some limitations in usage as well. In particular, the noise such as measurement error can cause significant problems. Consequently, on the basis of our previous works, in this paper we apply a range of techniques that somehow allow avoiding regular DEA limitations and give a chance to hold a robust estimation of the efficiency of Ukrainian banks.

Publikacje

A.Pilyavskyy, Yu.Matsiv, O. Vovchak, (2013). Robust Estimation of Ukrainian Bank Efficiency // Quantative Methods for the Analysis the Economic and Social Consequences of Transition Processes in Central-East European Countries. J. Pociecha (eds.), Kraków: Cracow University of Economics Press, 2013, p. 94-102

Zadanie badawcze 5.6

2014

Comparative Analysis of the Frontier methodology (Data Envelopment Analysis and Stochastic Frontier Analysis) for the estimation of the efficiency of Ukrainian banks

(plan na 2014 r.)

Kierownik

prof. dr hab. Anatol Pilyavskyy

Skład zespołu

prof. dr hab. Anatol Pilyavskyy

Streszczenie zadania

In the paper, we focus on distinctive features of the applying of Frontier Analysis methodology to the estimation of the efficiency of Ukrainian banks. The article based on our previous results (see, e.g., Pilyavskyy and Matsiv (2009), Pilyavskyy and Matsiv (2010), Pilyavskyy et al. (2010, Pilyavskyy et al. (2012)).

Publikacje

Yu.Matsiv,  A.Pilyavskyy (2014). Efficiency of Ukrainian Banks. Does it make difference?  Proceedings of the 19th Slovak-Polish-Ukrainian Scientific Seminar. Quantative Methods in Socio-Economic Analysis. Bratislava October 23-27, 2012, Sviätý Jur, Slovakia, Edited by Eva Sodomova,  University of Economics in Bratislava, AGAPÉ, Slovakia, 2014, 99-117

Komputerowe metody wspomagania zarządzania infrastrukturą i środowiskiem

KIERUNEK BADAWCZY 6

Komputerowe metody wspomagania zarządzania infrastrukturą i środowiskiem

Kierownik

dr hab. inż. Piotr Holnicki, prof. WSISiZ

Skład zespołu

dr hab. inż. Piotr Holnicki, dr inż. Andrzej Kałuszko, dr inż. Jan W. Owsiński , dr Barbara Mażbic-Kulma, dr Jarosław Stańczak, mgr Krzysztof Sęp, mgr Aleksy Barski

Zadanie badawcze 6.1

2009

Struktury systemów transportu a rozwój aglomeracji

Kierownik

dr hab. inż. Piotr Holnicki, prof. WSISiZ

Skład zespołu

dr hab. inż. Piotr Holnicki, dr inż. Andrzej Kałuszko

Streszczenie zadania

Zadaniem  modelu rozprzestrzeniania się zanieczyszczeń powietrza jest dostarczenie ilościowej oceny intensywności poszczególnych procesów oraz ich wyników w postaci rozkładu stężenia zanieczyszczeń. Dane te są podstawą do oceny wynikających stąd zagrożeń dla środowiska naturalnego oraz wspomagania decyzji planistycznych. Duża złożoność systemu powoduje, że w jego prognozach istnieje dość szeroki zakres niepewności, który należy uwzględnić w podejmowanych decyzjach. Uważa się, że głównymi źródłami niepewności takich prognozach są wejściowe dane emisyjne i meteorologiczne. Zadanie polega na określeniu wpływu niepewności i nieprecyzyjności tych dwóch grup danych na niepewność prognoz generowanych przez model. Obliczenia testowe przeprowadzono na danych rzeczywistych dotyczących wybranego regionu przemysłowego

Publikacje

Holnicki P.: Niepewność prognoz w modelowaniu propagacji zanieczyszczeń atmosferycznych. Studia i Materiały Polskiego Towarzystwa Zarządzania Wiedzą, tom 23, Bydgoszcz 2009, 54 – 68

Holnicki P., Nahorski Z.: Traveling Toxins. ACADEMIA, 2009, vol. 23, 35 – 37

Stańczak J., Holnicki P.: Application of evolutionary technique in long-term analysis. Modellierung und Simulation von Oekosystemen. (ed. A. Gnauck), Shaker Verlag, Aachen 2009, 269 – 283

Kałuszko A.: Metoda wyznaczania strategii redukcji emisji zanieczyszczeń gazowych oparta na programowaniu dynamicznym Studia i Materiały Polskiego Towarzystwa Zarządzania Wiedzą, tom 23, Bydgoszcz 2009, 80 – 90

Zadanie badawcze 6.2

2009

Zagadnienia teorii grafów w kontekście systemów transportowych – sformułowanie istotnych zagadnień

Kierownik

dr inż. Jan W. Owsiński

Skład zespołu

dr inż. Jan W. Owsiński , dr Barbara Mażbic-Kulma, dr Jarosław Stańczak, mgr Krzysztof Sęp, mgr Aleksy Barski

Streszczenie zadania

Prace badawcze prowadzone w pierwszym roku realizacji kierunku badawczego dotyczyły sformułowania podstawowych zagadnień, wiążących analizę grafów z projektowaniem i analiza systemów transportu w kontekście miejskim. W szczególności – zespół wykonawców analizował uprzednio opracowane, w trakcie wcześniej prowadzonych prac algorytmy, służące optymalizacji poszczególnych aspektów struktury grafów oraz ich określonych klas przekształceń pod kątem ich przydatności do analizy, projektowania i optymalizacji systemów transportowych. Algorytmy te odnosiły się do takich zagadnień, zarówno klasycznych, jak i specyficznych, jak względnie spójne podgrafy danego grafu i ich identyfikacja, optymalne struktury o określonych własnościach, otrzymywane przy pomocy bądź to algorytmów dokładnych, bądź odpowiednio dobranych metaheurystyk, itp.

Publikacje

Zasadniczy zrąb wyników tych prac zamieszczono w artykułach, opublikowanych przez J. Stańczaka, H. Potrzebowskiego i K. Sępa.

Zadanie badawcze 6.3

2010

Analiza niepewności w modelowaniu jakości powietrza atmosferycznego w mieście

Kierownik

dr hab. inż. Piotr Holnicki, prof. WSISiZ

Skład zespołu

dr hab. inż. Piotr Holnicki, dr inż. Andrzej Kałuszko

Streszczenie zadania

Analizowano zagadnienie niepewności prognoz komputerowych modeli rozprzestrzeniania się zanieczyszczeń atmosferycznych, zwłaszcza pod kątem ich wykorzystania do wspomagania decyzji w zintegrowanych systemach zarządzania jakością powietrza atmosferycznego. Wykorzystując algorytm Monte Carlo oraz bazując na rzeczywistych danych emisyjnych dla wybranego regionu (Górny Śląsk – sektor energetyki zawodowej), wykonano cykl obliczeń testowych, których celem było oszacowanie wpływu określonych parametrów na niepewność prognoz modelu. Jako główne źródła niepewności przyjęto dane wejściowe (emisja, dane meteorologiczne) oraz kluczowe parametry modelu, wykorzystując eulerowski model REGFOR3 jako narzędzie prognostyczne. Otrzymane rozkłady niepewności średniorocznych wartości stężeń zanieczyszczeń w wybranych receptorach są odbiciem założonego rozkładu i zakresu niepewności danych wejściowych.

Publikacje

Holnicki P.: Some aspects of the integrated approach to air quality management based on optimization techniques. ARCHIVES OF ENVIRONMENTAL PROTECTION, vol. 36, No. 1, 2010, 145-159

Holnicki P., Nahorski Z.: Wpływ niepewności danych emisyjnych na dokładność prognoz zanieczyszczeń atmosferycznych. STUDIA I MATERIAŁY POLSKIEGO STOWARZYSZENIA ZARZĄDZANIA WIEDZĄ, vol. 33, No. 1, 2010, 146-157

Kałuszko A.: Wspomaganie decyzji rozdziału środków na redukcję emisji zanieczyszczeń gazowych w długim horyzoncie czasowym, Studia i Materiały Polskiego Stowarzyszenia Zarządzania Wiedzą, 33 , 2010, 33, 158 – 169

Zadanie badawcze 6.4

2010

Algorytmy przekształcania grafu reprezentującego system transportowy

Kierownik

dr inż. Jan W. Owsiński

Skład zespołu

dr inż. Jan W. Owsiński , dr Barbara Mażbic-Kulma, dr Jarosław Stańczak, mgr Krzysztof Sęp, mgr Aleksy Barski

Streszczenie zadania

Na podstawie wyników prac, prowadzonych w ramach zadania 1 w poprzednim roku, dokonano przeglądu technik i konkretnych algorytmów, jakie są do dyspozycji w odniesieniu do tej klasy zagadnień, która została wyodrębniona w trakcie badań. W szczególności, prowadzono prace nad adaptacją algorytmów już uprzednio opracowanych przez zespół, które to algorytmy można podzielić na trzy grupy: (a) algorytmy analizy grafu, zwłaszcza dotyczące zagadnień klasycznych (najkrótsza droga, najkrótsza ważona droga, minimalne drzewo rozpinające, pełne i spójne pod-struktury itp.); (b) algorytmy analizy danych, które można zastosować do analizy grafów (np. algorytmy analizy skupień, zarówno te, znane z literatury, jak również i własne techniki, opracowane do celów analizy grafów); (c) metaheurystyki, zwłaszcza należące do obszernej klasy algorytmów ewolucyjnych, w tym, w szczególności, algorytmy i aplikacje komputerowe charakteryzujące się dwupoziomową zdolnością ewolucyjną (dynamika poszczególnych osobników populacji oraz dynamika mechanizmów ewolucji populacji).

Publikacje

Wyniki prowadzonych prac zostały podsumowane w tekstach, zgłoszonych do publikacji i na konferencjach naukowych, przy czym większość z nich ukazała się w okresie późniejszym, ze względu na trwanie procedur wydawniczych.

Zadanie badawcze 6.5

2011

Wpływ sektora transportowego na zanieczyszczenie powietrza w aglomeracji

Kierownik

dr hab. inż. Piotr Holnicki, prof. WSISiZ

Skład zespołu

dr hab. inż. Piotr Holnicki, dr inż. Andrzej Kałuszko

Streszczenie zadania

W przypadku wykorzystania modelu transportu zanieczyszczeń atmosferycznych w zintegrowanych systemach decyzyjnych, niepewność prognoz modelu ma istotny wpływ na jakość decyzji planistycznych. Zgodnie z powszechną opinią, głównym źródłem niepewności są dane wejściowe, a zwłaszcza inwentaryzacja źródeł emisji. Dotyczy to szczególnie aglomeracji miejskich, gdzie pole emisyjne oznacza koncentracje wielkiej liczby różnorodnych źródeł na ograniczonym obszarze. Prace dotyczyły analizy wpływu niepewności i nieprecyzyjności  wejściowych danych emisyjnych na wyniki prognoz modeli rozprzestrzeniania się zanieczyszczeń atmosferycznych w aglomeracji warszawskiej. Wyniki obliczeń dotyczyły prognoz stężeń średniorocznych najważniejszych zanieczyszczeń atmosferycznych dla Warszawy.  Wykorzystano je następnie do analizy wpływu zanieczyszczeń pyłowych (głównie PM2.5) na zdrowie mieszkańców, w tym ilościową ocenę wpływu poszczególnych kategorii źródeł emisji Opublikowano kilka prac przedstawiających wyniki obliczeń. Liczne publikacje, wystąpienia konferencyjne.

Publikacje

Holnicki P., Uncertainty in Computer Analysis of Air Quality, w: Modellierung und Simulation von Oekosystemen. (ed. A. Gnauck), Shaker Verlag, Aachen 2011, 164 – 184

Holnicki P., Nahorski Z., Tainio M., Modelowanie i wspomaganie decyzji: ocena skutków zdrowotnych zanieczyszczenia powietrza w Warszawie -studium przypadku, w: Postępy automatyki i robotyki. Część 1 (Malinowski K., Dindorf R., red.), Politechnika Świetokrzyska, Kielce 2011, 307-320

Holnicki P., Uncertainty in Integrated Modelling of Air Quality, w: Advanced Air Pollution (Nejadkoorki F. ed.), INTEX 2011, 239-260

Kałuszko A.: Metoda efektywnego zarządzania rozdziałem środków na redukcję emisji gazów cieplarnianych. Współczesne problemy Zarządzania, 2011, 71 – 82

Zadanie badawcze 6.6

2011

Zagadnienie konstrukcji struktur typu „hub and spoke” i odpowiadające im algorytmy

Kierownik

dr inż. Jan W. Owsiński

Skład zespołu

dr inż. Jan W. Owsiński , dr Barbara Mażbic-Kulma, dr Jarosław Stańczak, mgr Krzysztof Sęp, mgr Aleksy Barski

Streszczenie zadania

W ramach zadania 3 skoncentrowano się na technikach i algorytmach, służących otrzymywaniu najlepszych struktur z klasy, określanej jako „hub and spoke”. Struktury takie są traktowane jako oferujące możliwość istotnej poprawy warunków funkcjonowania systemów transportowych dla zadanej struktury wyjściowej w postaci grafu (macierzy) połączeń i/lub przepływów między węzłami (popyt na transport), a także określonych współczynników zadania, np. kosztów stałych i zmiennych, minimalnych i maksymalnych przepustowości itp. Zadanie polega na zaprojektowaniu, dla zadanej struktury wyjściowej, odpowiadającej jej struktury „hub and spoke”, składającej się z powiązanych między sobą węzłów „centralnych” („hubs”), dla których wyznacza się odpowiadające im zbiory „szprych” („spokes”), tj. węzły, które są powiązane wyłącznie z odpowiadającym im węzłem centralnym. Klasycznym przykładem zastosowania takiej struktury są połączenia lotnicze, ale znajduje ona także zastosowanie w projektowaniu („optymalizacji”) systemów transportu miejskiego. W szczególności, zbadano możliwość zastosowania uprzednio opracowanych, w ramach zadania 2, algorytmów do rozwiązywania tak zarysowanego zadania.

Publikacje

Część wyników tych prac zamieszczono w artykule J. Stańczaka, H. Potrzebowskiego i K. Sępa, który został opublikowany w kwartalniku Control and Cybernetics vol. 40, 3, 80-107

Zadanie badawcze 6.7

2012

Wspomaganie decyzji w zarządzaniu jakością powietrza

Kierownik

dr hab. inż. Piotr Holnicki, prof. WSISiZ

Skład zespołu

dr hab. inż. Piotr Holnicki, dr inż. Andrzej Kałuszko

Streszczenie zadania

Prace prowadzone w 2012 dotyczyły m.in. oceny wpływu niepewności i nieprecyzyjności danych wejściowych na wyniki prognoz modeli rozprzestrzeniania się zanieczyszczeń atmosferycznych w skali miasta. Wyniki obliczeń dotyczących rozprzestrzeniania się zanieczyszczeń atmosferycznych dla Warszawy wykorzystano do analizy wpływu zanieczyszczeń pyłowych (głównie PM10 oraz PM2.5) na zdrowie mieszkańców, w tym ocenę ilościową wpływu poszczególnych kategorii źródeł emisji. Wykazano dominujący w tym zakresie wpływ zanieczyszczeń  emitowanych przez sektor transportu miejskiego (PM, NOx, metale ciężkie), przy znikomym udziale wysokich źródeł energetycznych. Przedstawiono wnioski dotyczące możliwości wykorzystania wyników do wspomagania zarzadzania jakością powietrza atmosferycznego w mieście..

Równocześnie prowadzono prace dotyczące alokacji środków finansowych przeznaczonych na redukcję emisji CO2 w elektrowniach opalanych węglem kamiennym i brunatnym. Redukcja emisji jest dokonywana przez implementację jednej z kilku dostępnych technologii i ma na celu osiągnięcie zadanego, odpowiednio niskiego poziomu emisji pochodzącej z określonego zbioru źródeł w zadanym, wieloletnim horyzoncie czasowym, w taki sposób, by sumaryczne koszty inwestycyjne i eksploatacyjne technologii były najniższe.

Publikacje

Holnicki P., Environmental Decision Support Under Uncertainty - Case Study Analysis, w: Modellierung und Simulation von Oekosystemen. (ed. A. Gnauck), Shaker Verlag, Aachen 2012, 185 – 204

Holnicki P., Horabik J., Nahorski Z., Tainio M., Modelowanie jakości powietrza atmosferycznego, Gabinet Prezesa PAN. Biuro Upowszechniania i Promocji Nauki PAN: Tradycja - Współczesność - Przyszłość. Refleksje jubileuszowe 1952 - 2012,Polska Akademia Nauk, Warszawa 2012, 161-162

Kałuszko A.: A Method of Efficient Allocation of Financial Means for CO2 Emission Reduction in a Set of Sources, w: „Modellierung und Simulation von Ökosystemen” (Albrecht Gnauck ed.), Shaker

Zadanie badawcze 6.8

2012

Struktury „kernel and shell”, ich własności i algorytmy ich otrzymywania

Kierownik

dr inż. Jan W. Owsiński

Skład zespołu

dr inż. Jan W. Owsiński , dr Barbara Mażbic-Kulma, dr Jarosław Stańczak, mgr Krzysztof Sęp, mgr Aleksy Barski

Streszczenie zadania

W kolejnym etapie prac analizowano zaproponowaną przez zespół badawczy nowatorską koncepcję struktury systemu transportowego, stanowiącą uogólnienie struktury typu „hub and spoke”, a nazwaną „kernel and shell” („jądro i skorupa”). Ten nowy rodzaj struktury składa się z względnie ściśle połączonych węzłów, tworzących „jądro” i znacznie słabiej powiązanych węzłów, tworzących „skorupę”, jednakże bez jednoznacznego podziału węzłów „skorupy” pomiędzy węzłami „jądra”. Mamy zatem do czynienia z bardziej swobodnym układem dwóch klas węzłów, co daje lepsze możliwości odzwierciedlania czy realizacji faktycznego popytu na usługi transportowe, reprezentowanego przez graf wyjściowy, tj. graf danych, dotyczących faktycznych lub przewidywanych przewozów.

Publikacje

W trakcie realizacji tego zadania opracowano, a następnie opublikowano artykuł, podsumowujący doświadczenia, zebrane w dotychczasowych pracach zespołu (B. Mażbic-Kulma, J. W. Owsiński, K. Sęp, J. Stańczak, J.: Evolutionary approach for obtaining the hub and spoke structure in the logistic network. Total Logistic Management, 2012 (druk w 2013), 1, 89-105).

Zadanie badawcze 6.9

2013

Wspomaganie decyzji w zarządzaniu jakością powietrza na przykładzie aglomeracji Warszawa

Kierownik

dr hab. inż. Piotr Holnicki, prof. WSISiZ

Skład zespołu

dr hab. inż. Piotr Holnicki, dr inż. Andrzej Kałuszko

Streszczenie zadania

Kontynuowano prace z zakresu wykorzystania modeli jakości powietrza w aglomeracji miejskiej do wspomagania decyzji. Dotyczyły m.in. analizy niepewności prognoz modelu, wynikającej z nieprecyzyjności i niepewności wejściowych danych emisyjnych. Wykorzystując metodę Monte Carlo, przeprowadzono analizę na danych rzeczywistych (rok 2005) dla aglomeracji warszawskiej. Wykazano, że głównymi czynnikami decydującymi o końcowej niepewności prognozy stężenia w danym receptorze są: wartość średnia stężenia, kategoria źródeł emisji o dominującym oddziaływaniu, liczba indywidualnych źródeł emisji o dominującym udziale (wzrost liczby źródeł oznacza obniżenie niepewności – efekt uśredniania). 

Ponadto opracowano metodę przydziału technologii redukcji emisji CO2 do źródeł, zależnie od ceny praw do emisji CO2 i długości horyzontu planowania. Wykorzystuje się heurystyczną metodę opartą na programowaniu dynamicznym, zapewniającą minimalizację kosztów wybranej technologii (inwestycyjnych i operacyjnych) w określonym horyzoncie czasowym. Jeżeli koszty danej technologii są wyższe niż cena praw do emisji CO2 jest ona zastępowana przez zakup praw do emisji. Obliczenia przetestowano na zbiorze 20 największych elektrowni w Polsce opalanych węglem.

Publikacje

Holnicki P., Nahorski Z.,  Air quality modeling in Warsaw Metropolitan Area, Journal of Theoretical and Applied Computer Science, 7, 2013, 56 – 69

Holnicki P., Tainio M., Nahorski Z.: Analysis of an Urban Air Quality and related Adverse Health Effects. Modellierung und  Simulation von Oekosystemen (ed. N. Xuan Thinh), Shaker Verlag 2013,  53 – 68

Kałuszko A.: Impact of the Price of CO2 Emission Rights on the Selection of Emission Reduction Technologies in a Given Set of Sources Modellierung und  Simulation von Oekosystemen  (Nguyen Xuan Thinh ed.), Shaker Verlag, Aachen, 2013

Kałuszko A.: Method for Efficient Distribution of Means to Reduce CO2 Emissions in a Set of Power Plants. Operations Research & Decisions, 2013, 2, 55 – 65

Zadanie badawcze 6.10

2013

Systemy Park + Ride w aglomeracjach miejskich

Kierownik

dr inż. Jan W. Owsiński

Skład zespołu

dr inż. Jan W. Owsiński , dr Barbara Mażbic-Kulma, dr Jarosław Stańczak, mgr Krzysztof Sęp, mgr Aleksy Barski

Streszczenie zadania

W roku 2013 rozpoczęto prace nad zastosowaniem do tej pory opracowanych technik i algorytmów do zagadnienia lokalizacji węzłów Park + Ride (Parkuj i Jedź) w aglomeracji miejskiej. Prace były prowadzone kilkutorowo: (a) dokonano pobieżnego przeglądu faktycznie zrealizowanych systemów P+R w szeregu aglomeracji miejskich na świecie i w Polsce; (b) zapoznano się ze stosowanymi w ramach plac analitycznych i planistycznych metodykami; okazało się, że zastosowanie technik optymalizacji struktur grafowych odgrywały w tych pracach bardzo ograniczoną, lub wręcz żadną, rolę; (c) wstępnie analizowano konkretną strukturę systemu transportu miejskiego w m. st. Warszawie, jako potencjalny przykład zastosowania opracowanych metodyk; należy jednak podkreślić, że struktura ta była w sensie danych dość uboga, niezależnie od swojej znacznej objętości (ponad 10 000 węzłów fizycznych, niecałe 3 000 węzłów logistycznych), ponieważ nie można było dysponować danymi, dotyczącymi popytu.

Publikacje

Efektem tych prac było nawiązanie wstępnej współpracy ze specjalistami z Zakładu Transportu Miejskiego m. st. Warszawy (ZTM), a ponadto sporządzenie wstępnej wersji artykułu, zgłoszonego do renomowanego czasopisma European Journal of Operational Research (EJOR).

Zadanie badawcze 6.11

2014

Wpływ rozwoju miejskiej sieci komunikacyjnej na zanieczyszczenie środowiska

(plan na 2014 r.)

Kierownik

dr hab. inż. Piotr Holnicki, prof. WSISiZ

Skład zespołu

dr hab. inż. Piotr Holnicki, dr inż. Andrzej Kałuszko

Plan prac badawczych

Kontynuowane będą prace dotyczące oceny zdrowotnych skutków zanieczyszczeń powietrza w aglomeracji miejskiej. Przygotowany zostanie od strony organizacyjnej i informatycznej kolejny etap prac, z wykorzystaniem zaktualizowanych danych emisyjnych i meteorologiczne (dla roku 2012) dla aglomeracji warszawskiej, przy większej dokładności dyskretyzacji przestrzennej (0.5 km x 0.5 km). Modelowane jest rozprzestrzeniania się typowych zanieczyszczeń atmosferycznych w aglomeracji miejskiej SO2, NOx, CO, pyłów (PM10, PM2.5), aerozoli, metali ciężkich (Pb, Cd, Ni, As, Hg), węglowodorów (C6H6, BaP). Szczególny nacisk położony jest na zanieczyszczenia transportowe, zwłaszcza w otoczeniu głównych ciągów komunikacyjnych. Dokonana będzie ocena dokładności oraz niepewności prognoz rozkładu stężeń pod kątem możliwości ich wykorzystania w systemach wspomagania decyzji. Do analizy rozprzestrzeniania się zanieczyszczeń atmosferycznych w Warszawie zastosowany będzie regionalny model prognostyczny CALPUFF.

Publikacje

M. Tainio, P. Holnicki, M.M. Loh, Z. Nahorski: Intake Fraction Variability Between Air Pollution Emission Sources Inside an Urban Area. Risk Analysis, 2014, 34, 1 – 14

P. Holnicki, A. Kałuszko, K. Stankiewicz: Wspomaganie zarządzania jakością powietrza atmosferycznego w mieście. Współczesne Problemy Zarządzania. Zeszyty Naukowe Wydziału Informatycznych Technik Zarządzania WSISiZ, Warszawa 2014, 25-44

Zadanie badawcze 6.12

2014

Metodyka projektowania systemów Park + Ride

(plan na 2014 r.)

Kierownik

dr inż. Jan W. Owsiński

Skład zespołu

dr inż. Jan W. Owsiński , dr Barbara Mażbic-Kulma, dr Jarosław Stańczak, mgr Krzysztof Sęp, mgr Aleksy Barski

Plan prac badawczych

Kontynuacja prac, prowadzonych w znacznej mierze we współpracy z warszawskim ZTM, doprowadziła do sporządzenia bazy danych, zawierającej dokładny opis grafu systemu transportu miejskiego Warszawy (węzły-przystanki, linie, rozkłady jazdy), wraz z możliwością graficznego operowania na tej bazie i wydobywania jej odpowiednio zdefiniowanych fragmentów. Należy zaznaczyć, że wyznaczanie pewnych istotnych parametrów tego systemu, wynikających z jego sposobu funkcjonowania, stanowi osobny problem obliczeniowy i informatyczny (np. wyznaczanie intensywności przejazdów w wyznaczonych okresach czasu). Niezależnie od tego, prowadzone były próby zastosowania poprzednio opracowanych technik i algorytmów do danych, zawartych w bazie. Opracowano wstępną wersję dwuetapowego podejścia do projektowania lokalizacji dla systemu Park + Ride dla Warszawy, przy czym dwuetapowość ta wynika wprost z wielkości tego systemu (niemożność dokonania odpowiednich przeliczeń dla całego systemu). Prowadzone są prace nad sformułowaniem odpowiednich funkcji celu (kryteriów jakości) dla obu etapów zaprojektowanej procedury. Planowany jest obszerny przegląd wyników empirycznych, otrzymanych dla zróżnicowanych założeń odnośnie postaci funkcji celu i ich współczynników, których obiektywna znajomość obarczona jest znacznym stopniem niewiedzy i niepewności (np. ocena preferencji potencjalnych pasażerów transportu miejskiego, motywacji do wykorzystania infrastruktury tego transportu, itp.).

Publikacje

Przedstawiono wstępne wyniki prowadzonych prac na seminariach w siedzibie warszawskiego ZTM, a także na stałym seminarium grupy badawczej transportu i geografii miast Instytutu Geografii i Przestrzennego Zagospodarowania PAN. Wygłoszono referat na międzynarodowej konferencji specjalistów z zakresu teorii lokalizacji ISOLDE XIII i w przygotowaniu jest wystąpienie na konferencji BOS 2014 (Badania Operacyjne i Systemowe) w Warszawie, we wrześniu 2014 r. W przygotowaniu jest także trójstronne porozumienie, dotyczące prowadzonych prac, między ZTM, Szkołą i Instytutem Badań Systemowych PAN.

Wyniki zawarto również w publikacji:

Mażbic-Kulma B., Owsiński J. W., Stańczak J., Barski B., Sęp K., The Park and Ride Problem. The Graph Approach, Współczesne Problemy Zarządzania. Zeszyty Naukowe Wydziału Informatycznych Technik Zarządzania WSISiZ, Warszawa 2014, 7-24

Metody analizy strategicznej branży w praktyce biznesowej

KIERUNEK BADAWCZY 7

Metody analizy strategicznej branży w praktyce biznesowej

Kierownik:

dr Jacek Stefański

Zadanie badawcze 7.1

2009

Metodologia prognozowania popytu

Kierownik

dr Jacek Stefański

Skład zespołu

dr Jacek Stefański

Streszczenie zadania

Jednym z najistotniejszych składników otoczenia bliższego firmy (to jest takiego, na który firma może mieć wpływ) są klienci i, ujmując to bardziej generalnie, rynek na wytwarzane przez przedsiębiorstwo produkty. Zaś wśród cech charakteryzujących rynek podstawową jest popyt na produkty, które firma wytwarza. Patrząc zaś z punktu widzenia strategicznych interesów firmy, istotna jest nie tylko obecna wielkość popytu, ale przede wszystkim – jego przyszła ewolucja. Innymi słowy, jednym z najistotniejszych zadań związanych z określaniem strategii firmy jest prognozowanie przyszłego popytu.

Ważnym praktycznym zagadnieniem jest przy tym zbadanie zależności prognoz od zmiennych makroekonomicznych. Jako przykład do rozważanych zagadnień wybrano polską branżę kruszyw. Rozważano przy tym podstawowe segmenty tej branży, wykrywając przy okazji różne cykle ewolucji segmentu żwirów i piasków i segmentu kruszyw łamanych. Jednym z badanych zagadnień był też wpływ spodziewanego spowolnienia gospodarczego na prognozy popytu na poszczególne segmenty analizowanego rynku kruszyw. 

Przy opracowywaniu strategii przedsiębiorstwa ważna jest zarówno analiza jego otoczenia, jak i analiza wnętrza firmy. Z kolei istotnym składnikiem tego ostatniego typu analizy jest diagnoza kondycji firmy, która powinna być pierwszym krokiem przy określaniu strategii, jako że jej wyniki mogą sugerować ewentualne kroki naprawcze i sugestie co do przyszłej strategii rozwoju firmy.

Pierwszy etap prac tego tematu polegał na opracowaniu struktury, a następnie budowie bazy danych sprawozdań finansowych przedsiębiorstw z wybranej branży. Jako branżę przykładową wybrano jeden z segmentów budownictwa infrastrukturalnego, a mianowicie branżę budownictwa drogowo-mostowego. Następnie testowano wspomnianą bazę danych uzyskując wstępne wyniki analiz.

W drugim etapie prac tego tematu skupiono się na zagadnieniach prognozowania popytu przy uwzględnieniu wrażliwości tych prognoz na rozmaite czynniki. Jednym z najistotniejszych czynników są tu ceny danego produktu, które ustalane są w wyniku gry rynkowej, w której biorą udział wszyscy dostawcy danego produktu. W prowadzonych analizach ponownie wykorzystano dane dotyczące branży kruszyw w Polsce. W tym szczególnym przypadku do najistotniejszych czynników, poza ceną, należą również koszty transportu (jako że ceny końcowe, dla finalnego odbiorcy, zawierają także koszt transportu). Ze względu na usytuowanie złóż najlepszych kruszyw na południu Polski, koszt transportu do Polski centralnej potrafi być tego samego rzędu co cena surowca loco kopalnia. W efekcie cena może ulec podwojeniu.

Publikacje

Podsumowaniem pierwszego etapu prac była prezentacja na konferencji „Kruszywa Mineralne ”, a następnie artykuł pt. „Prognoza popytu na kruszywa, w kontekście nadchodzącego spowolnienia gospodarczego” opublikowany w: Prace Naukowe Instytutu Górnictwa Politechniki Wrocławskiej nr 125, Studia i Materiały nr 35, Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław 2009.

Praktyczne, wstępne wyniki prowadzonych prac przedstawiono w publikacjach: „Sytuacja  firm drogowych na rynku wykonawczym w Polsce”, LII Techniczne Dni Drogowe. Wydawnictwo Stowarzyszenia Inżynierów i Techników Komunikacji RP, Warszawa 2009; „Firmy drogowe są gotowe – najwyższy czas na inwestycje”. Polskie Drogi, Maj 2009; „Sytuacja firm drogowych”. Drogi, Grudzień 2009.

Wyniki drugiego etapu prac opublikowano w artykułach: „Popyt na kruszywa dla drogownictwa – prognozy i wrażliwość cenowa”, Prace Naukowe Instytutu Górnictwa Politechniki Wrocławskiej nr 130, Studia i Materiały nr 37, Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław 2010.  „Zapotrzebowanie na kruszywa ze strony branży drogowej do roku 2015”, Magazyn Autostrady, 4/2010.

Zadanie badawcze 7.2

2010

Analiza strategii inwestycyjnych

Kierownik

dr Jacek Stefański

Skład zespołu

dr Jacek Stefański

Streszczenie zadania

Jednym z fundamentalnych zagadnień związanych z inwestowaniem jest dobór strategii inwestycyjnej, to znaczy sposobu konstrukcji portfela papierów wartościowych i ewolucji tego portfela w czasie. Przy tym najistotniejszym elementem tej konstrukcji jest sposób doboru papierów wartościowych – składników owego portfela. W dyskusjach i badaniach dotyczących tego zagadnienia zestawiane są często dwie, w swojej filozofii istotnie różne, strategie – strategia inwestowania we wzrost, to znaczy w spółki wysoko wyceniane przez rynek, oraz strategia inwestowania w wartość, przez co rozumiany jest dobór do portfela spółek niedocenionych, a zatem nisko wycenianych przez rynek. Jako miary wyceny przez rynek są przy tym stosowane względne wartości wskaźników rynkowych, odnoszące wartość rynkową do wybranej wielkości fundamentalnej, najczęściej zysku lub wartości księgowej danej firmy.

W ramach tematu analizowano, na prawdziwych danych z polskiego rynku kapitałowego, efektywność dwóch wspomnianych wyżej strategii zarządzania portfelem inwestycyjnym. Jak wynikło z badań, przeprowadzonych dla danych z polskiego rynku, bardziej skuteczną okazuje się strategia inwestowania w spółki wartościowe, to znaczy o relatywnie niskich wartościach wskaźników rynkowych, czyli w spółki niedocenione przez ogół inwestorów.

Publikacje

Wyniki prac przedstawiono w artykule „Inwestowanie w wartość czy we wzrost: porównanie strategii zarządzania portfelem akcji”, Zeszyty Naukowe „Współczesne Problemy Zarządzania”, nr 1/2010.

Zadanie badawcze 7.3

2010 - 2011

Kompleksowe metody badania kondycji przedsiębiorstw

Kierownik

dr Jacek Stefański

Skład zespołu

dr Jacek Stefański

Streszczenie zadania

2010

Prace w obszarze tego tematu koncentrowały się na opracowaniu wielowymiarowej miary umożliwiającej sporządzenie rankingu przedsiębiorstw wybranej branży. Celem było znalezienie syntetycznej miary siły przedsiębiorstwa, przy czym przez siłę rozumiano nie tylko jego wielkość, ale także jakość aktywów i siłę finansową. Skonstruowano miarę o wymaganych cechach, a następnie zastosowano ją do uszeregowania przedsiębiorstwa branży drogowej w Polsce. W analizach i obliczeniach uwzględniono ponad 300 firm działających w kraju. W efekcie otrzymano syntetyczny ranking firm sektora, ze względu na ich siłę.

2011

Kontynuowano prace z roku poprzedniego, dotyczące konstrukcji wielowymiarowej, syntetycznej miary siły przedsiębiorstw. Wykorzystywano przy tym nadal rzeczywiste dane wybranej branży, to jest branżę przedsiębiorstw drogowo-mostowych działających w Polsce. Skonstruowano przy tym algorytmy implementujące owe miary dla dużych ilości danych, zebranych w zbudowanych w uprzednich etapach pracy bazach danych finansowych o kilkuset przedsiębiorstwach wybranej branży.

Publikacje

Fragmentaryczne wyniki prac przedstawiono w artykule „Ranking firm drogowych”, Polskie Drogi, Maj 2010.

Wyniki prac przedstawiono również w artykułach: „Najsilniejsze firmy branży drogowej”, Polskie Drogi, 5/ 2011; „Spada rentowność firm drogowych”, Polskie Drogi, 7-8/2011; „Sytuacja firm drogowych na rynku wykonawczym w Polsce”, LIV Techniczne Dni Drogowe, Wydawnictwo Stowarzyszenia Inżynierów i Techników Komunikacji RP, Warszawa 2011

Zadanie badawcze 7.4

2011 - 2013

Praktyczne metody analizy otoczenia branżowego

Kierownik

dr Jacek Stefański

Skład zespołu

dr Jacek Stefański

Streszczenie zadania

2011

Przy opracowywaniu strategii przedsiębiorstwa niezwykle istotnym zagadnieniem jest analiza jego otoczenia branżowego. Przy tym przez branżę rozumiemy tu zbiór konkurujących firm. W praktyce, sama definicja danej branży jest zagadnieniem wymagającym analiz i zastanowienia, jak bowiem wskazują niektóre przykłady wzięte z praktyki gospodarczej, błędne, nieadekwatne jej zdefiniowanie może być przyczyną wybrania złej, nie prowadzącej do sukcesu firmy, strategii.

Badania niniejszego tematu badawczego dotyczą metod analizy otoczenia branżowego, jakie mogą być zastosowane w warunkach polskich. Ze względu na specyfikę poszczególnych branż, sens mają jedynie rozważania i analizy skupiające się na jakiejś konkretnej, wybranej branży. W badaniach wykorzystano dane dotyczące branży budownictwa drogowo-mostowego, gdyż umożliwiło to korzystanie ze zbudowanej już przez zespół bazy danych opisujących firmy tej branży.

2012

Kontynuowano prace rozpoczęte w 2011 roku. Skoncentrowano się przy tym na analizie przyczyn powodujących gwałtowne, bardzo znaczne zmiany kondycji branży. Ponieważ wykorzystywana jako praktyczny przykład branża drogowa znalazła się w szczególnej sytuacji, to w analizach skupiono się na szukaniu przyczyn tego stanu. Istota wspomnianej sytuacji polegała na tym, że szybkiemu wzrostowi wielkości rynku na produkty branży, towarzyszyło równie gwałtowne pogorszenie kondycji firm branży. Zjawisko to było nietypowe, gdyż zazwyczaj wzrostowi rynku odpowiada polepszenie kondycji firm na nim działających. Aby to wyjaśnić, porównano obecny kryzys z kryzysem, który analizowana branża już raz przeszła, w latach 2000-2001. Jednak okazało się, że obecny kryzys miał specyficzne przyczyny i obejmował nie tylko sferę bezpośredniego otoczenia firm branży, lecz także sferę regulacyjno-administracyjną, a także sferę strategii przedsiębiorstw. W badaniach wykorzystano metodę segmentacji aktorów, którzy mogli wpływać na sytuację branży, definiując także różne interesy owych grup.

2013

Kontynuowano prace rozpoczęte w 2011 roku, skupiając się na tym etapie na metodach określenia kondycji finansowej przedsiębiorstw branży. W tym celu wykorzystano szeroką analizę porównawczą, obejmującą, z jednej strony, około 500 firm, z drugiej zaś strony, szeroką gamę kilkudziesięciu wskaźników natury finansowej, korzystających ze zmiennych ujętych w rocznych sprawozdaniach finansowych. Jako uzupełnienie analiz ilościowych opartych na twardych danych finansowych, wykorzystano wyniki ankiet o charakterze jakościowym, przeprowadzonych wśród zarządów firm branży. Ten drugi element pozwolił na sformułowanie miernika koniunktury branżowej.

Publikacje

Wyniki prac wykorzystano w publikacjach:

„Dziś i jutro w budownictwie drogowym”, Builder, Październik 2011; „Budownictwo drogowe – kondycja branży i prognoza rynku”, Magazyn Autostrady, 7/2011; „Budownictwo drogowe”, Nowoczesne Budownictwo Inżynieryjne, lipiec-sierpień 2011

Osobliwy kryzys branży – czy można go było przewidzieć?”, Polskie Drogi, 7/2012

„Prawie połowa firm zagrożona – które z nich przetrwają?”, Polskie Drogi, 8/2013; „Kondycja finansowa branży drogowej”, Nowoczesne Budownictwo Inżynieryjne, Wrzesień-Październik 2013

Zadanie badawcze 7.5

2014

Praktyczne metody analiz strategicznych w warunkach kryzysu gospodarczego 

(plan na 2014 r.)

Kierownik

dr Jacek Stefański

Skład zespołu

dr Jacek Stefański

Plan prac badawczych

Obserwując zmiany w gospodarce kraju w ostatnich latach można zauważyć rosnąca liczbę bankructw przedsiębiorstw. Po części jest to zapewne pokłosie ogólnoświatowego kryzysu finansowego, który rozpoczął się w roku 2008 i, choć w łagodnej wersji, ale dotarł także do Polski. Powstaje jednak pytanie, czy zaistniały też inne przyczyny wspomnianych kłopotów firm. A w szczególności, czy  przyczyny te nie miały swojego źródła w strategiach realizowanych przez firmy? W związku z powyższymi spostrzeżeniami, plan badawczy na rok 2014 obejmuje rozszerzenie analiz w tym kierunku. Tak jak w latach poprzednich, koncepcje badawcze będą weryfikowane na rzeczywistych danych gospodarczych.

Analiza wykorzystanie obecności międzynarodowych korporacji dla rozwoju lokalnych przedsiębiorstw (kierunek badawczy prowadzony przy współudziale studentów)

KIERUNEK BADAWCZY 8

Wykorzystanie obecności  międzynarodowych korporacji dla rozwoju lokalnych przedsiębiorstw

Kierownik

prof. dr hab. Tadeusz Baczko

Skład zespołu

prof. dr hab. Tadeusz Baczko, studenci studiów II stopnia

Zadanie badawcze 8.1

2011

Badania umiędzynarodowienia przedsiębiorstw innowacyjnych z udziałem studentów

Kierownik

prof. dr hab. Tadeusz Baczko

Skład zespołu

prof. dr hab. Tadeusz Baczko, studenci

Streszczenie zadania

Badanie stanowi kontynuacje prac z lat 2006-2008, których podsumowanie zawierała publikacja T.Baczko, E.Krzywina: „Wyzwanie innowacyjne dla przedsiębiorczych”, Współczesne Problemy Zarządzania , 1/2009. Badanie ankietowe przeprowadzone przy udziale studentów WSISiZ pod auspicjami PAN na temat poziomu innowacyjności i umiędzynarodowienia przedsiębiorstw z udziałem studentów. Badanie wykazało istnienie innowacyjnych przedsiębiorstw o zasięgu międzynarodowym. Podstawą była ankieta oparta na wzorcach z Kanady zaprezentowana w ramach National Experts for Science and Technology Indicators OECD w Paryżu.

Publikacje

Wyniki badania w formie prezentacji  zostały przekazane do Komisji Europejskiej w ramach Zielonej Księgi opracowywanej przy tworzeniu założeń programu Europa 2020 i umieszczone zostały na stronie internetowej konsultacji społecznej programu.

Zadanie badawcze 8.2

2012 - 2013

Wykorzystanie obecności międzynarodowych korporacji i obecności ich światowych łańcuchów wartości dla potrzeb rozwoju przedsiębiorstw lokalnych

Kierownik

prof. dr hab. Tadeusz Baczko

Skład zespołu

prof. dr hab. Tadeusz Baczko, studenci

Streszczenie zadania

Prace badawcze odbywają się przy udziale studentów. Ich wynikiem jest powstawanie zbiorów studiów przypadków korporacji międzynarodowych uwzględniających ich pozycję, strategie, wyniki finansowe i inwestycje B+R, Szczególny nacisk jest położony na kwestie uwzględnienia obecności ich światowych łańcuchów wartości dla potrzeb rozwoju przedsiębiorstw lokalnych.  

Publikacje

Wynikiem są coroczne prace zbiorowe w postaci elektronicznej. Są  one przedmiotem debat z udziałem studentów oraz mogą być wykorzystywane dla upowszechnienia wiedzy na temat obecności i znaczenia korporacji międzynarodowych w Polsce.

Zadanie badawcze 8.3

2014

Analiza danych dotyczących inwestycji w badania i rozwój korporacji międzynarodowych oraz  ich lokalizacji w regionie Warszawy

(plan na 2014 r.)

Kierownik

prof. dr hab. Tadeusz Baczko

Skład zespołu

prof. dr hab. Tadeusz Baczko, studenci

Plan prac badawczych

Inwestycje w badania i rozwój przedsiębiorstw w Polsce i ich niski udział w PKB są jednym z największych wyzwań strukturalnych polityki innowacyjnej. W celu zbadania możliwości zwiększenia wykorzystania możliwości obecności w kraju największych inwestorów w B+R podjęte zostanie przedsięwzięcie badawczo-wdrożeniowe mające na celu ułatwienie stworzenia ich więzi z podmiotami lokalnymi. Na podstawie badania danych o największych  inwestorach w badania i rozwój w skali światowej, przeprowadzone zostanie studium pod kątem lokalizacji ich  przedstawicieli w regionie Warszawy. Przygotowane zostaną krótkie informacje dla wybranych firm. Następnie opracowana  zostanie pilotażowa aplikacja internetowa przy wykorzystaniu technologii Google map, która pozwoli nie tylko lokalizować siedziby przedstawicieli korporacji w Warszawie, ale także tworzyć oddzielne mapy dla wybranych obszarów działalności. Badania i opracowanie aplikacji zostaną zrealizowane przy udziale studentów studiów II stopnia Wydziału Informatycznych Technik Zarządzania WSISiZ.