Projekty IT

Brałem udział w wielu inicjatywach i projektach. Nie wszystkie jestem w stanie tutaj opisać, dlatego postanowiłem skupić się wyłącznie na tych, które uważam za istotne, ponieważ dały mi satysfakcję lub wydały mi się w jakimś stopniu oryginalne. Przedstawiam je w odwróconej kolejności chronologicznej.

 

Środowisko bezpieczeństwa klientów bankowości elektronicznej, 2021

Kluczowym osiągnięciem 2021 roku była możliwość przeprowadzenia badań i opracowania raportu pt. „Środowisko bezpieczeństwa klientów bankowości elektronicznej” na zlecenie Programu Analityczno-Badawczego Fundacji Warszawski Instytut Bankowości. Pracowałem w ramach zespołu Morskiego Centrum Cyberbezpieczeństwa Akademii Marynarki Wojennej im. Bohaterów Westerplatte w Gdyni (MCC AMW) pod kierownictwem dra hab. Jerzego Kosińskiego. Skład zespołu, który przeprowadził badania i przygotował raport: dr hab. Jerzy Kosiński, dr hab. Grzegorz Krasnodębski, dr Paweł Ciszek i Paweł Wawrzyniak.

Celem głównym raportu była analiza środowiska bezpieczeństwa klienta bankowości elektronicznej, a w szczególności:

  • charakterystyka istniejących rozwiązań dla klienta bankowości elektronicznej;
  • charakterystyka klienta bankowości elektronicznej;
  • identyfikacja zagrożeń dla klienta bankowości elektronicznej;
  • określenie kierunków rozwoju usług dla klienta bankowości elektronicznej;
  • wskazanie możliwych działań wzmacniających świadomość zagrożeń dla klienta bankowości elektronicznej.

 

 

Pragnę zauważyć, że możliwość wspólnej pracy nad raportem w ramach zespołu MCC AMW była dla mnie źródłem wielkiej satysfakcji. Była to również okazja, aby bardzo dużo się nauczyć – i to nie tylko, jeżeli chodzi o kwestie związane z bezpieczeństwem bankowości, lecz także w obszarze metodologii badań.

 


Okres 2015 – 2021

Brałem udział w wielu projektach związanych z rozwojem architektury teleinformatycznej banku, w szczególności w obszarze cyberbezpieczeństwa, automatyzacji i cloud computing.

 


Fuzja PKO BP i banku Nordea, 2013 – 2015

Umowa dotycząca zakupu aktywów Nordea AB w Polsce, w tym również Nordea Bank Polska S.A., przez PKO Bank Polski została podpisana w czerwcu 2013 roku. 1 kwietnia 2014 roku nastąpiło formalne przejęcie, a we wrześniu Komisja Nadzoru Finansowego zgodziła się na połączenie poprzez przeniesienie całego majątku Nordea Bank Polska S.A. na PKO BP. Ostatniego dnia października 2014 miała miejsce fuzja o charakterze prawnym. Fuzja operacyjna oznaczająca zintegrowanie systemów informatycznych obu instytucji i pełne ujednolicenie działalności, m.in. w zakresie dostępu do placówek i systemów transakcyjnych dla wszystkich klientów, niezależnie od tego, którego banku klientami byli przed rozpoczęciem integracji, miała miejsce w kwietniu 2015.

Miałem przyjemność uczestniczenia w tym przedsięwzięciu w latach 2013 do 2015. Na początkowym etapie przygotowań byłem m.in. odpowiedzialny za opracowanie załącznika do umowy, który definiował zasady i reguły współpracy obydwu instytucji w obszarze bezpieczeństwa fizycznego – w zakresie dostępu obydwu stron do przejmowanych placówek bankowych, serwerowni, biur i ośrodków przetwarzania danych.

 

 

Wraz z podległym mi zespołem odpowiadałem za utrzymanie ośrodków przetwarzania danych. Dążyliśmy do zapewnienia bezpieczeństwa i wysokiej dostępności usług w czasie fuzji, co udało nam się osiągnąć. Miałem także możliwość przejścia szeregu dogłębnych audytów w obszarze bezpieczeństwa fizycznego i zabezpieczeń technicznych.

Równocześnie, w czasie fuzji Nordea Bank Polska S.A. i PKO BO S.A. wspierałem działania mające na celu umocnienie pozycji nowo powstałej spółki Nordea IT Polska Sp. z o.o, w tym skupiałem się na promocji kompetencji mojego zespołu.

To był bardzo intensywny czas i wyjątkowy projekt. Muszę przyznać, że najlepiej wspominam silne poczucie współpracy i bardzo przyjazną atmosferę, które ułatwiały działanie i doskonale angażowały wszystkich w realizację wspólnego celu.

 


Data Centre Infrastructure Navigator, 2013-2016

Razem z kolegą postanowiliśmy zaprojektować od podstaw i przepisać w nowych technologiach nasz autorski system służący do zarządzania infrastrukturą ośrodków przetwarzania danych (OPD). Nazwa Data Center Infrastructure Navigator (DCIN) miała nawiązywać do systemów klasy Data Centre Infrastructure Management (ang. Data Centre Infrastructure Management, DCIM – system zarządzania infrastrukturą centrum danych), a jednocześnie wskazywać jego podstawowe przeznaczenie: łatwą nawigację w gąszczu informacji gromadzonych każdego dnia w toku prac utrzymaniowych OPD.

Data Centre Infrastructure Navigator był rozwinięciem naszej wcześniejszej koncepcji – podobnego systemu, który opracowaliśmy na własne potrzeby, kiedy systemy DCIM nie były jeszcze dostępne na rynku (patrz poniżej – Data Centre Physical Infrastructure Manager, 2008 – 2012). W przeciwieństwie do pierwowzoru, DCIN nie był jednak opracowany z myślą o bankowych OPD, serwerowniach, obiektach biurowych i placówkach, ich utrzymaniu i rozwoju, ale miał na celu ułatwienie zarządzania dowolnym obiektem typu OPD, serwerownia lub pomieszczenie techniczne (np. pomieszczenie centralnego systemu UPS lub agregatów prądotwórczych).

Data Centre Infrastructure Navigator był systemem klasy DCIM, który pozwalał operatorom utrzymać aktualną dokumentację infrastruktury fizycznej wielu, rozproszonych geograficznie ośrodków przetwarzania danych. System wspierał podstawowe procesy zachodzące w OPD, m.in.:

  • zarządzanie pojemnością,
  • zarządzanie konfiguracją,
  • zarządzanie zmianą,
  • zarządzanie zdarzeniami, incydentami i problemami.

Data Centre Infrastructure Navigator pozwalał także na definiowanie harmonogramów przeglądów dowolnych, poddanych ewidencji elementów infrastruktury fizycznej, gromadzenie dokumentacji operacyjnej (np. procedur eksploatacyjnych, list dostępowych), projektowej (np. aranżacje pomieszczeń, instalacje elektryczne), wykonawczej (np. plan połączeń sieci komputerowej) i powykonawczej (np. wyniki pomiarów okresowych instalacji elektrycznej, kod źródłowy systemy zarządzania budynkiem – BMS, pliki firmware dla urządzeń IT, dozorowych lub kontrolno-pomiarowych), protokołów z przeglądów, raportów z awarii, rekomendacji serwisu itp. W rezultacie system DCIN łączył podstawowe cechy rozwiązania klasy DCIM, CMMS (ang. Continuous Maintenance Management System) oraz DMS (ang. Document Management System). Warto zauważyć, że możliwe było przechowywanie dokumentacji w praktycznie dowolnym formacie zapisu danych.

 

 

Siłą DCIN była prostota implementacji, bazowanie na sprawdzonych mechanizmach systemu operacyjnego MS Windows (np.: serwer plików, bezpieczeństwo), wykorzystanie znanych i stabilnych technologii (.NET, SMB, MS SQL Server). Aplikacja klienta DCIN została stworzona w języku C# z wykorzystaniem Windows Forms.

Jeżeli czas pozwoli, w planach mam uporządkowanie źródeł i dostosowanie systemu do współczesnych realiów. Może komuś przyda się nasza praca, a może ktoś postanowi ten system dalej rozwijać?

 


Serwis informacyjny DCSerwis.pl, 2009 – 2011

Kiedy w 2008 roku zacząłem zajmować się obszarem infrastruktury OPD, razem z kolegami z zespołu zauważyliśmy, że brakuje w Polsce serwisu informacyjnego, który propagowałby wiedzę na temat rynku data center. Odczuwaliśmy wówczas wyraźny głód wiedzy, branżowe szkolenia z tej dziedziny były praktycznie niedostępne, tematyka rozwoju i utrzymania infrastruktury serwerowni rzadko przebijała się we wiodących mediach branżowych. W związku z tym – trochę na własny użytek, ale i dla dobra ogółu raczkującej w Polsce branży – postanowiliśmy taki portal uruchomić samodzielnie, co uczyniliśmy w 2009 roku.

Nasza inicjatywa szybko spotkała się z dużym odzewem z rynku. Mieliśmy okazję przeprowadzać wywiady, regularnie publikowaliśmy informacje dotyczące nowości ze świata data center, artykuły merytoryczne i felietony, a wreszcie objęliśmy patronatem szereg konferencji branżowych.

W magazynie Linux+ „Data Center” opublikowaliśmy m.in. artykuł pt. „Data center i wszystko pod kontrolą”, który przedstawiał naszą autorską koncepcję Infrastruktury Krytycznej Serwerowni (IKS), w skład której wchodzą: struktura fizyczna, zasilanie, chłodzenie, okablowanie strukturalne, monitorowanie i zarządzanie, bezpieczeństwo fizyczne i ochrona przeciwpożarowa, a także dwa, często niedoceniane, filary działu IT i całej organizacji: procedury i normy oraz dokumentacja.

Sądzę, że pomimo upływu czasu, ten artykuł wciąż jest całkiem dobrym wprowadzeniem w tematykę zarządzania infrastrukturą ośrodków przetwarzania danych.

Portalem DCSerwis.pl zajmowałem się do 2011 roku.

 


Data Centre Physical Infrastructure Manager, 2008 – 2012

Zarządzanie infrastrukturą i świadczenie usług ośrodka przetwarzania danych wymaga nie tylko specjalistycznej, dość szerokiej wiedzy, doskonale wyszkolonych kadr, ale także odpowiedniego oprogramowania, czyli narzędzi wspierających codzienną pracę i realizowane procesy. Kiedy w 2008 roku rozpocząłem swoją przygodę z infrastrukturą OPD, takie narzędzia nie były łatwo dostępne lub ich funkcjonalność pozostawiała dużo do życzenia.

W związku z tym postanowiliśmy podjąć wyzwanie, dzięki czemu razem z kolegami z zespołu stworzyliśmy własny system typu DCIM (ang. Data Centre Infrastructure Management – system zarządzania infrastrukturą centrum danych). Nie wiedząc dokąd konkretnie zmierzamy, zastosowaliśmy metodykę prototypowania z przyrostem, a całe rozwiązanie zmuszeni byliśmy oprzeć nie na technologiach preferowanych, ale wówczas dla nas dostępnych – mało kto bowiem wierzył w nasz sukces.

Doskonała współpraca w ramach zespołu i dobrze dobrana metodyka rozwoju oprogramowania dość szybko zaowocowały pierwszą wersją naszego – jak się później okazało używanego z sukcesem przez wiele lat – narzędzia, które otrzymało dumną nazwę: Data Centre Physical Infrastructure Manager (w skrócie: DCPI Manager). Oficjalne wdrożenie zbiegło się z momentem uruchomienia przebudowanego, podstawowego (tymczasowego) ośrodka przetwarzania danych, który utrzymywał systemy bankowe działające na terenie Polski, Litwy, Łotwy i Estonii.

DCPI Manager pomagał nam zarządzać infrastrukturą fizyczną podległych ośrodków przetwarzania danych, serwerowni i około 200 placówek bankowych, w tym: planować przeglądy, prace serwisowe, rejestrować wszelkie istotne zdarzenia, incydenty i problemy, zmiany w konfiguracji, gromadzić różnego rodzaju dokumentację i korespondencję w wersji elektronicznej, katalogować zdjęcia z wizji lokalnych itp. Oferował także podstawowe możliwości monitorowania parametrów zasilaczy bezprzerwowych (ang. Uninterruptible Power Supply, UPS) z użyciem protokołu SNMP (ang. Simple Network Management Protocol) w podległych placówkach bankowych. Łączył w sobie cechy systemów CMMS (ang. Continuous Maintenance Management System) oraz DMS (ang. Document Management System).

Udało nam się zintegrować DCPI Managera z BMC Remedy w celu zasilania Bazy Danych Zarządzania Konfiguracją (ang. Configuration Management Data Base, CMDB) danymi o środkach trwałych (urządzeniach eksploatowanych w OPD i serwerowniach). System ten nie był idealny, ale sprawdzał się wiele lat. Kiedy ostatnim razem pytałem kolegów z dawnego zespołu o losy DCPI Managera, dowiedziałem się, że w 2016 roku wciąż był w użyciu, chociaż czasy swojej świetności miał już za sobą.

DCPI Manager został napisany przy użyciu języka programowania Visual Basic for Applications, z użyciem wywołań MS Windows API w MS Access (frontend) i korzystał z serwera bazodanowego MySQL, działającego w systemie operacyjnym GNU/Linux (backend) za pośrednictwem połączenia ODBC. Wykorzystywał także serwer plików uruchomiony w systemie GNU/Linux (SAMBA), a do monitorowania UPS rozszerzenie napisane w języku C z użyciem biblioteki Net-SNMP (odczyt parametrów i odbiór komunikatów SNMP TRAP) oraz frontend napisany w języku C# z użyciem Windows Forms. Regularnie korzystało z niego 6 osób odpowiedzialnych za infrastrukturę serwerowni i ośrodków przetwarzania danych, a w szczycie popularności nawet około 10.

System DCPI Manager został przeze mnie zaprezentowany na konferencji branżowej Datacenter Dynamics „Converged” w 2012 roku więcej na ten temat w sekcji: Prelekcje.

 

 


Rozwój infrastruktury ośrodków przetwarzania danych

Primary Data Centre, 2010 – 2012

Projekt Primary Data Centre (PDC) związany był z budową – od podstaw – nowoczesnego, bankowego ośrodka przetwarzania danych. Moja rola w tym projekcie, jako kierownika komórki merytorycznej bezpośrednio odpowiedzialnej za standardy infrastruktury data center i serwerowni w Nordea Bank Polska S.A., polegała przede wszystkim za zarządzaniu zespołem eksperckim po stronie inwestora i ścisłej współpracy z kierownikiem projektu.

W czasie realizacji projektu udało nam się wdrożyć szereg usprawnień i innowacyjnych pomysłów technicznych, ułatwiających codzienną pracę utrzymaniową. Mieliśmy m.in. szansę wykonania – przy udziale wyspecjalizowanej firmy zewnętrznej – pełnych testów obciążeniowych ośrodka przetwarzania danych, przed oddaniem go do eksploatacji. Wyniki testów pozwoliły upewnić się, że eksploatowany ośrodek będzie faktycznie cechował się zakładaną niezawodnością i dostępnością, a w czasie awarii zachowa się w przewidywalny sposób. W tamtym czasie wykonywanie takich kilkudniowych testów, zgodnie z metodyką Uptime Institute było czymś nowym w skali ogólnopolskiej.

Przeznaczeniem PDC było utrzymanie w działaniu systemów teleinformatycznych wykorzystywanych przez bank na terenie Polski, Litwy, Łotwy i Estonii. Do PDC zostały przeniesione systemy wcześniej utrzymywane w tzw. „starym PDC” (rozbudowanym w roku 2008 – patrz niżej: Rozbudowa „starego PDC”).

 

Disaster Recovery Centre, 2009 – 2010

Disaster Recovery Centre (DRC) był projektem mającym na celu adaptację istniejącego budynku na potrzeby zapasowego, bankowego ośrodka przetwarzania danych. Do najciekawszych rozwiązań zaimplementowanych w DRC według pomysłu pracujących w moim zespole inżynierów zaliczam koncepcję głównego punktu dystrybucyjnego (ang. Main Distribution Frame, MDF) oraz zabudowy zimnych korytarzy z duktami kablowymi na potrzeby okablowania pomocniczego.

DRC było zapasowym ośrodkiem przetwarzania danych, który zabezpieczał ciągłość działania systemów teleinformatycznych dla obszaru Polski, Litwy, Łotwy i Estonii w przypadku niedostępności „starego” PDC, a następnie nowo wybudowanego PDC.

 

Rozbudowa „starego” PDC, 2008

Ten projekt był dla mnie pierwszym doświadczeniem w obszarze adaptacji i rozbudowy infrastruktury ośrodka przetwarzania danych. Do czynienia mieliśmy z wykorzystywanym już, działającym produkcyjnie w trybie 24/7, podstawowym, bankowym ośrodkiem przetwarzania danych. Było to niesamowite doświadczenie ze względu na ogrom wykonanych – w pewnym sensie na żywym organizmie – prac i ulepszeń.

Zaryzykowałbym tutaj stwierdzenie, że rozbudowa i adaptacja budynku na potrzeby OPD jest pod wieloma względami większym wyzwaniem niż rozpoczęcie budowy od podstaw. W szczególności, jeżeli mamy do czynienia z obiektem, który pierwotnie projektowany był jako hotel, a następnie przez wiele lat stanowił centralę biznesu.

Mój udział w projekcie polegał na nadzorowaniu podwykonawców i wspieraniu wszelkich prac projektowych. Natomiast pełniąc rolę specjalisty ds. monitorowania infrastruktury miałem możliwość zdobycia wiedzy w zakresie monitoringu krytycznych parametrów OPD (np. zasilanie, klimatyzacja, parametry środowiskowe, alarmy przekroczenia wartości progowych i ich obsługa itp.), a także w obszarze bezpieczeństwa fizycznego i zabezpieczeń technicznych (np. dozór kamerami IP, systemy kontroli dostępu, systemy wczesnego wykrywania zadymienia – ang. Very Early Smoke Detection Aparatus, systemy gaszenia gazem – FM200, Inergen.

Głównym oprogramowaniem używanym do monitoringu podległego obszaru był pakiet SNMPc Enterprise, wdrażałem także oprogramowanie WhatsUp Gold i miałem możliwość zaprojektowania oraz zaimplementowania systemu wspomagającego zarządzanie infrastrukturą fizyczną ośrodków przetwarzania danych – Data Centre Physical Infrastructure Manager (DCPI Manager), które zostało już tutaj opisane (patrz wyżej: Data Centre Physical Infrastructure Manager, 2008 – 2012).

Projekty budowy nowego PDC, adaptacji budynku na potrzeby DRC i rozbudowy „starego” PDC zostały przedstawione podczas konferencji Datacenter Dynamics „Converged” 2013 w Warszawie. Więcej informacji na temat poniższej prezentacji w sekcji: Prelekcje.

 

 


IT-FAQ, IT-FAQ on-line, poradnik „Microsoft Windows. Sieci komputerowe”, 2003 – 2005

Trudno powiedzieć, abyśmy mieli tutaj do czynienia z pojedynczym projektem. Moim celem jest raczej podkreślenie bardzo ciekawego okresu w rozwoju mojej kariery zawodowej, kiedy współpracowałem z firmą IT Security Consulting Services Sp. z o.o (IT SCS Sp z o.o.).

Współpracę rozpocząłem jako autor tekstów, a po jakimś czasie pełniłem funkcję zastępcy redaktora naczelnego magazynu IT-FAQ. Bardzo dobrze wspominam ten okres, ponieważ zdobyłem duże doświadczenie i miałem okazję współpracować z gronem uznanych ekspertów wchodzących w skład kolegium redakcyjnego oraz regularnie zasilających pismo artykułami.

Do moich obowiązków należało także wykonywanie regularnych przeglądów Microsoft Security Bulletins (jeszcze przed ich publikacją) w porozumieniu z firmami IT SCS Sp. z o.o. oraz Microsoft, aktualizacja portalu IT-FAQ on-line oraz wykonywanie testów i tworzenie recenzji oprogramowania związanego z zapewnianiem bezpieczeństwa sieci i systemów teleinformatycznych. Odpowiadałem również za zbieranie i redagowanie materiałów w ramach okresowych aktualizacji poradnika „Microsoft Windows. Sieci komputerowe” na rzecz wydawnictwa Forum Sp. z o.o.

Co ciekawe, cała współpraca odbywała się wówczas w 100% zdalnie, a nasz zespół był rozproszony po całej Polsce, a czasami nawet i świecie. W latach 2003 do 2005 taki tryb pracy wcale nie był w Polsce normą. Tym bardziej cieszę się, że w pewnym sensie brałem udział w czymś – jak na swoje czasy – oryginalnym. Nauczyłem się wówczas dwóch bardzo przydatnych do dzisiaj rzeczy: organizacji pracy w geograficznie rozproszonych zespołach oraz oddzielania przestrzeni pracy od przestrzeni wypoczynku.

Jestem przekonany, że praca, którą w tym okresie wykonaliśmy, w jakiś sposób wpisała się na dobre w historię prasy branżowej w Polsce. Z tego względu zebrałem tutaj okładki wszystkich wydań IT-FAQ i uwieczniłem dwa tomy poradnika „Microsoft Windows. Sieci komputerowe” (do tej publikacji okresowo wydawane były także aktualizacje). To już historia!

 

 

Rynek prasy komputerowej był wówczas bardzo trudny. Malejące nakłady, coraz większa popularność treści dostarczanych on-line, czy nawet problemy z płynnością finansową wśród kontrahentów mocno zniechęcały do prowadzenia i angażowania się w tego typu inicjatywy.

 


Software 2.0 i Software 2.0 Extra! oraz Linux+ i Linux+ Extra!, 2001 – 2003

Współpracę z Software-Wydawnictwo Sp. z o.o. rozpocząłem jako autor dwóch artykułów do magazynu Linux+. Następnie, po przeprowadzce z Gdyni do Warszawy, podjąłem tam etatową pracę, dzięki czemu przez ponad rok miałem przyjemność pełnić funkcję redaktora merytorycznego magazynu dla programistów Software 2.0. Byłem także redaktorem naczelnym trzech wydań specjalnych.

Praca redaktora bywa bardzo ciekawa, ale jest też niesamowicie wymagająca i nieprzewidywalna. Mój plan zakładał, aby uczestniczyć w produkcji Software 2.0 przez przynajmniej jeden cykl wydawniczy.

W tym czasie udało mi się wziąć udział w opracowaniu kilkunastu numerów Software 2.0, jednego wydania Linux+ Extra! i dwóch wydań Software 2.0 Extra!. Jako redaktor uczestniczyłem w wielu konferencjach branży IT, co dla młodego człowieka znajdującego się wciąż u progu kariery zawodowej było sporym przeżyciem. Widziałem narodziny polskiej dystrybucji systemu operacyjnego GNU/Linux o nazwie Aurox, a nawet miałem okazję zostać przeszkolony wewnętrznie na potrzeby wspierania warsztatów pt. „Techniki przełamywania zabezpieczeń systemów komputerowych”. Dzięki temu byłem w stanie – wraz z pozostałymi kolegami z redakcji – wspierać eksperta prowadzącego warsztaty, czyli głównie odpowiadać na prostsze pytania i potrzeby uczestników, w ciągu trzech kolejnych zorganizowanych edycji. Warto podkreślić, że w 2002 roku warsztaty z hakingu, mające wymiar praktyczny, były czymś naprawdę wyjątkowym – świadomość tego faktu i możliwość bliskiej współpracy z naszym ekspertem dawała naprawdę wiele satysfakcji.

Zebrałem tutaj – dla potrzeb raczej kronikarskich – okładki wszystkich magazynów Software 2.0, Software 2.0 Extra!, Linux+ i Linux+ Extra!, przy których produkcji miałem okazję pracować – zarówno jako autor jaki i redaktor.

 

 

To był krótki, ale intensywny okres. Szczególnie dobrze wspominam mojego redaktora naczelnego. Po latach muszę stwierdzić, że był świetnym szefem, ale ja – jako młody człowiek – nie byłem w stanie zrozumieć i docenić pewnych jego pomysłów i działań. Cóż, doświadczenie musimy zdobyć, a na to potrzebny jest czas, w którym popełniamy błędy i wyciągamy wnioski.