Bezpieczeństwo w erze wielkich zbiorów danych – know-how
Katgoria: IT Solutions / Utworzono: 05 marzec 2015
Bezpieczeństwo w erze wielkich zbiorów danych – know-how
Gorączka złota” w zakresie gromadzenia i analizowania wielkich zbiorów danych (ang. Big Data) trwa, napędzana przez nabierający znaczenia trend Internetu Rzeczy (ang. Internet of Things). Sytuacja ta stwarza coraz większe problemy w zakresie bezpieczeństwa sieci firmowych i centrów przetwarzania danych. Istnieją trzy kluczowe obszary, które można zoptymalizować, aby lepiej wykorzystać ich potencjał.
Pierwszym z nich jest agregacja. Coraz częściej zamiast przetwarzać surowe dane i ograniczać ich ilość u źródła do poziomu ułatwiającego zarządzanie, są one przesyłane do centralnego repozytorium i przechowywane w celu ich analizowania pod różnym kątem w dłuższym okresie. W dzisiejszych czasach przedsiębiorstwa każdego dnia przesyłają wiele terabajtów danych do odległych lokalizacji. Już sama ilość danych wymusza modernizację sieci szkieletowych i centrów przetwarzania danych, na przykład przez wdrażanie przełączników 100 GbE w celu zapewnienia obsługi przesyłania danych z prędkością 10 Gb/s lub większą.
Ponadto taka sytuacja stwarza problemy w zakresie ochrony brzegów sieci (np. firewalle), a wiele rozwiązań dostępnych dziś na rynku nie jest w stanie obsłużyć tak wielkiej liczby sesji i napływu danych. Przykładowo firewall wyposażony w porty 10 GbE lub zapewniający łączną przepustowość rzędu 40 Gb/s może w rzeczywistości nie posiadać wewnętrznych ścieżek przetwarzania pozwalających obsłużyć pojedynczy przepływ danych z prędkością 10 Gb/s. Przeciążenie sieci LAN w wyniku normalnej działalności przedsiębiorstwa może spowodować jeszcze większe nasycenie procesora urządzenia sieciowego lub zasobów pamięci, a w efekcie zatrzymać lub nawet odrzucić duże przepływy danych.
Drugim obszarem jest przetwarzanie. Przepływy wielkich zbiorów danych nie są symetryczne. Surowe dane przychodzące niekoniecznie są identyczne pod względem formatu i ilości, co dane wychodzące. Dane przechowywane w macierzach pamięci masowej są na ogół analizowane przez grupę serwerów pośrednich, następnie ich ilość jest zmniejszana i udostępniana (najczęściej przez systemy frontowe serwerów WWW) w formie ograniczonego zestawu informacji przed opuszczeniem centrum przetwarzania danych. Oznacza to większe zapotrzebowanie na przepustowość oraz coraz większy ruch poprzeczny (ze wschodu na zachód – ang. east-west) w ramach centrum przetwarzania danych, zamiast w kierunku Internetu lub innych miejsc (z północy na południe – ang. north-south). Z wielu opracowań branżowych wynika, że ruch ze wschodu na zachód stanowi obecnie nawet 70% ruchu generowanego przez centrum przetwarzania danych. Przewiduje się, że trend ten będzie przybierać na sile ze względu na rosnące znaczenie analizy wielkich zbiorów danych.
Taki rodzaj ruchu należy dzielić na segmenty i kontrolować nie tylko w celu blokowania poprzecznego ruchu zagrożeń typu APT i ataków mających swoje źródło wewnątrz centrum, lecz także w celu zabezpieczenia danych, których wyciek lub ujawnienie może spowodować problemy. Architektury bezpieczeństwa sieciowego muszą ewoluować z architektur zorientowanych na bezpieczeństwo brzegów sieci lub bram w kierunku wielowarstwowych hybrydowych architektur, w których większa część ruchu ze wschodu na zachód jest wirtualizowana i wyodrębniana przez zastosowanie wirtualizacji serwerów lub sieci i przetwarzania w chmurze.
Trzecim obszarem jest dostęp. W ramach analizy dane są archiwizowane przez długi okres. Kto może uzyskiwać dostęp do konkretnych danych i w jakim celu? Często mamy do czynienia nie z pojedynczym zestawem danych, lecz z wieloma repozytoriami, które można łączyć i analizować jako całość. Każdy zestaw danych może zawierać dane poufne lub objęte szczególną ochroną, które mogą podlegać określonym regulacjom prawnym lub kontrolom wewnętrznym. Ponadto dostęp do danego zestawu ma często więcej niż jedna grupa analityków czy badaczy, a z czasem uzyskują go również inne osoby. Dobrym przykładem udanego zarządzania dostępem jest pewna duża firma farmaceutyczna, której wielkie zbiory danych zostały udostępnione nie tylko pracownikom wewnętrznym, lecz także wykonawcom, stażystom i naukowcom. Dla każdej grupy utworzono oddzielne testowe środowisko analityczne oraz nadano im uprawnienia dostępu do określonych zestawów danych, które grupy te mogły analizować i łączyć.
W takim kontekście działy informatyczne muszą w zasadniczy sposób zmienić swoją strategię bezpieczeństwa sieci, zamiast stopniowo dostosowywać się do zmieniających się potrzeb w zakresie bezpieczeństwa centrum przetwarzania danych. W wielu przypadkach infrastruktura centrum przetwarzania danych jest konsolidowana i przekształcana nie tylko z uwagi na rosnące znaczenie analizy wielkich zbiorów danych, lecz także trendy, takie jak przetwarzanie w chmurze i oprogramowanie jako usługa (SaaS). Na potrzeby tej transformacji działy informatyki powinny rozważyć wdrożenie architektury cechującej się:
Robert Dąbrowski, starszy inżynier systemowy, FORTINET
Ponadto taka sytuacja stwarza problemy w zakresie ochrony brzegów sieci (np. firewalle), a wiele rozwiązań dostępnych dziś na rynku nie jest w stanie obsłużyć tak wielkiej liczby sesji i napływu danych. Przykładowo firewall wyposażony w porty 10 GbE lub zapewniający łączną przepustowość rzędu 40 Gb/s może w rzeczywistości nie posiadać wewnętrznych ścieżek przetwarzania pozwalających obsłużyć pojedynczy przepływ danych z prędkością 10 Gb/s. Przeciążenie sieci LAN w wyniku normalnej działalności przedsiębiorstwa może spowodować jeszcze większe nasycenie procesora urządzenia sieciowego lub zasobów pamięci, a w efekcie zatrzymać lub nawet odrzucić duże przepływy danych.
Drugim obszarem jest przetwarzanie. Przepływy wielkich zbiorów danych nie są symetryczne. Surowe dane przychodzące niekoniecznie są identyczne pod względem formatu i ilości, co dane wychodzące. Dane przechowywane w macierzach pamięci masowej są na ogół analizowane przez grupę serwerów pośrednich, następnie ich ilość jest zmniejszana i udostępniana (najczęściej przez systemy frontowe serwerów WWW) w formie ograniczonego zestawu informacji przed opuszczeniem centrum przetwarzania danych. Oznacza to większe zapotrzebowanie na przepustowość oraz coraz większy ruch poprzeczny (ze wschodu na zachód – ang. east-west) w ramach centrum przetwarzania danych, zamiast w kierunku Internetu lub innych miejsc (z północy na południe – ang. north-south). Z wielu opracowań branżowych wynika, że ruch ze wschodu na zachód stanowi obecnie nawet 70% ruchu generowanego przez centrum przetwarzania danych. Przewiduje się, że trend ten będzie przybierać na sile ze względu na rosnące znaczenie analizy wielkich zbiorów danych.
Taki rodzaj ruchu należy dzielić na segmenty i kontrolować nie tylko w celu blokowania poprzecznego ruchu zagrożeń typu APT i ataków mających swoje źródło wewnątrz centrum, lecz także w celu zabezpieczenia danych, których wyciek lub ujawnienie może spowodować problemy. Architektury bezpieczeństwa sieciowego muszą ewoluować z architektur zorientowanych na bezpieczeństwo brzegów sieci lub bram w kierunku wielowarstwowych hybrydowych architektur, w których większa część ruchu ze wschodu na zachód jest wirtualizowana i wyodrębniana przez zastosowanie wirtualizacji serwerów lub sieci i przetwarzania w chmurze.
Trzecim obszarem jest dostęp. W ramach analizy dane są archiwizowane przez długi okres. Kto może uzyskiwać dostęp do konkretnych danych i w jakim celu? Często mamy do czynienia nie z pojedynczym zestawem danych, lecz z wieloma repozytoriami, które można łączyć i analizować jako całość. Każdy zestaw danych może zawierać dane poufne lub objęte szczególną ochroną, które mogą podlegać określonym regulacjom prawnym lub kontrolom wewnętrznym. Ponadto dostęp do danego zestawu ma często więcej niż jedna grupa analityków czy badaczy, a z czasem uzyskują go również inne osoby. Dobrym przykładem udanego zarządzania dostępem jest pewna duża firma farmaceutyczna, której wielkie zbiory danych zostały udostępnione nie tylko pracownikom wewnętrznym, lecz także wykonawcom, stażystom i naukowcom. Dla każdej grupy utworzono oddzielne testowe środowisko analityczne oraz nadano im uprawnienia dostępu do określonych zestawów danych, które grupy te mogły analizować i łączyć.
W takim kontekście działy informatyczne muszą w zasadniczy sposób zmienić swoją strategię bezpieczeństwa sieci, zamiast stopniowo dostosowywać się do zmieniających się potrzeb w zakresie bezpieczeństwa centrum przetwarzania danych. W wielu przypadkach infrastruktura centrum przetwarzania danych jest konsolidowana i przekształcana nie tylko z uwagi na rosnące znaczenie analizy wielkich zbiorów danych, lecz także trendy, takie jak przetwarzanie w chmurze i oprogramowanie jako usługa (SaaS). Na potrzeby tej transformacji działy informatyki powinny rozważyć wdrożenie architektury cechującej się:
- wysoką wydajnością – możliwość obsługi większych zbiorów danych, większa przepustowość sieci, szybkie porty (np. 40 Gb/100 Gb), duża gęstość portów, jak również skalowalność i elastyczność w celu zapewnienia obsługi coraz większych zbiorów danych;
- bezpieczeństwem – zwiększenie bezpieczeństwa brzegów sieci dzięki lepszej segmentacji wewnętrznej w celu zabezpieczenia ruchu danych ze wschodu na zachód i monitorowania zagrożeń typu APT i zagrożeń wewnętrznych;
- konsolidacją – integracja wielu funkcji bezpieczeństwa, od podstawowych, takich jak firewall/sieć VPN, ochrona przed szkodliwym oprogramowaniem i system zapobiegania włamaniom, po zaawansowane, takie jak kontrola dostępu i silne uwierzytelnianie.
Robert Dąbrowski, starszy inżynier systemowy, FORTINET
Najnowsze wiadomości
PSI prezentuje nową identyfikację wizualną
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
W ramach realizowanej strategii transformacji PSI Software SE zaprezentowała nową identyfikację wizualną. Odświeżony wizerunek w spójny sposób oddaje technologiczne zaawansowanie firmy, jej głęboką wiedzę branżową oraz silne ukierunkowanie na potrzeby klientów. Zmiany te wzmacniają pozycję PSI jako innowacyjnego lidera technologicznego w obszarze skalowalnych rozwiązań informatycznych opartych na sztucznej inteligencji i chmurze, rozwijanych z myślą o energetyce i przemyśle.
Europejski przemysł cyfryzuje się zbyt wolno – ERP, chmura i AI stają się koniecznością
Europejski przemysł średniej wielkości wie, że cyfryzacja jest koniecznością, ale wciąż nie nadąża za tempem zmian. Ponad 60% firm ocenia swoje postępy w transformacji cyfrowej jako zbyt wolne, mimo rosnącej presji konkurencyjnej, regulacyjnej i kosztowej. Raport Forterro pokazuje wyraźną lukę między świadomością potrzeby inwestycji w chmurę, ERP i AI a realną zdolnością do ich wdrożenia – ograniczaną przez braki kompetencyjne, budżety i gotowość organizacyjną.
Smart Factory w skali globalnej: jak MOWI porządkuje produkcję dzięki danym w czasie rzeczywistym
Cyfryzacja produkcji w skali globalnej wymaga dziś spójnych danych, jednolitych standardów i decyzji podejmowanych w czasie rzeczywistym. W środowisku rozproszonych zakładów produkcyjnych tradycyjne raportowanie i lokalne narzędzia IT przestają wystarczać. Przykład MOWI pokazuje, jak wdrożenie rozwiązań Smart Factory i systemu MES może uporządkować zarządzanie produkcją w wielu lokalizacjach jednocześnie, zwiększając przejrzystość procesów, efektywność operacyjną oraz stabilność jakości.
Cyfryzacja produkcji w skali globalnej wymaga dziś spójnych danych, jednolitych standardów i decyzji podejmowanych w czasie rzeczywistym. W środowisku rozproszonych zakładów produkcyjnych tradycyjne raportowanie i lokalne narzędzia IT przestają wystarczać. Przykład MOWI pokazuje, jak wdrożenie rozwiązań Smart Factory i systemu MES może uporządkować zarządzanie produkcją w wielu lokalizacjach jednocześnie, zwiększając przejrzystość procesów, efektywność operacyjną oraz stabilność jakości.
Hakerzy nie kradną już tylko haseł. Oni kradną Twój czas i przyszłość. Jak chronić ERP przed paraliżem?
Hakerzy coraz rzadziej koncentrują się wyłącznie na kradzieży haseł. Ich prawdziwym celem jest dziś sparaliżowanie kluczowych systemów biznesowych, przejęcie kontroli nad danymi i wymuszenie kosztownych decyzji pod presją czasu. System ERP, jako centralny punkt zarządzania finansami, produkcją i logistyką, stał się dla cyberprzestępców najbardziej atrakcyjnym celem. Ten artykuł pokazuje, dlaczego tradycyjne zabezpieczenia przestają wystarczać i jak realnie chronić ERP przed atakami, które mogą zatrzymać firmę z dnia na dzień.
Najnowsze artykuły
Magazyn bez błędów? Sprawdź, jak system WMS zmienia codzienność logistyki
Współczesna logistyka wymaga nie tylko szybkości działania, lecz także maksymalnej precyzji – to właśnie te czynniki coraz częściej decydują o przewadze konkurencyjnej firm. Nawet drobne pomyłki w ewidencji stanów magazynowych, błędy przy przyjmowaniu dostaw czy nieprawidłowe rozmieszczenie towarów, mogą skutkować poważnymi stratami finansowymi i opóźnieniami w realizacji zamówień. W jaki sposób nowoczesne rozwiązania do zarządzania pomagają unikać takich sytuacji? Czym właściwie różni się tradycyjny system magazynowy od zaawansowanych rozwiązań klasy WMS (ang. Warehouse Management System)? I w jaki sposób inteligentne zarządzanie procesami magazynowymi realnie usprawnia codzienną pracę setek firm?
Jak maksymalizować zyski z MTO i MTS dzięki BPSC ERP?
Zysk przedsiębiorstwa produkcyjnego zależy nie tylko od wydajności maszyn, ale przede wszystkim od precyzyjnego planowania, realnych danych i umiejętnego zarządzania procesami. Dlatego firmy, które chcą skutecznie działać zarówno w modelu Make to Stock (MTS), jak i Make to Order (MTO), coraz częściej sięgają po rozwiązania klasy ERP, takie jak BPSC ERP.
Warsztaty analityczne i sesja discovery. Jak wygląda pierwszy etap współpracy z partnerem wdrożeniowym ERP
Wdrożenie systemu ERP to jedna z najważniejszych strategicznych decyzji, jakie może podjąć firma. To inwestycja, która ma zrewolucjonizować procesy, zwiększyć efektywność i dać przewagę konkurencyjną. Jednak droga do sukcesu jest pełna potencjalnych pułapek. Wielu menedżerów obawia się nieprzewidzianych kosztów, oporu zespołu czy niedopasowania systemu do realnych potrzeb. Jak zminimalizować to ryzyko? Kluczem jest solidne przygotowanie. Zanim padnie słowo „wdrażamy”, konieczne jest przeprowadzenie trzech fundamentalnych etapów: warsztatów analitycznych, sesji discovery oraz analizy przedwdrożeniowej ERP. To nie są zbędne formalności, ale fundament, na którym zbudujesz sukces całego projektu.
Wdrożenie systemu ERP to jedna z najważniejszych strategicznych decyzji, jakie może podjąć firma. To inwestycja, która ma zrewolucjonizować procesy, zwiększyć efektywność i dać przewagę konkurencyjną. Jednak droga do sukcesu jest pełna potencjalnych pułapek. Wielu menedżerów obawia się nieprzewidzianych kosztów, oporu zespołu czy niedopasowania systemu do realnych potrzeb. Jak zminimalizować to ryzyko? Kluczem jest solidne przygotowanie. Zanim padnie słowo „wdrażamy”, konieczne jest przeprowadzenie trzech fundamentalnych etapów: warsztatów analitycznych, sesji discovery oraz analizy przedwdrożeniowej ERP. To nie są zbędne formalności, ale fundament, na którym zbudujesz sukces całego projektu.
Strategia migracji danych do nowego systemu ERP. Metody, ryzyka i najlepsze praktyki
Wdrożenie nowego systemu ERP to dla wielu firm nie tylko krok w stronę unowocześnienia procesów biznesowych, ale także ogromne przedsięwzięcie logistyczne i technologiczne. Aby nowy system ERP zaczął efektywnie wspierać działalność organizacji, kluczowe jest odpowiednie przygotowanie danych, które muszą zostać bezpiecznie i precyzyjnie przeniesione ze starego systemu. Migracja danych ERP to skomplikowany proces, wymagający zarówno zaawansowanej wiedzy technologicznej, jak i dokładnego planowania na poziomie strategicznym. W tym artykule przybliżymy najlepsze metody, wskażemy najczęstsze ryzyka oraz podpowiemy, jak przeprowadzić migrację krok po kroku.
Wdrożenie nowego systemu ERP to dla wielu firm nie tylko krok w stronę unowocześnienia procesów biznesowych, ale także ogromne przedsięwzięcie logistyczne i technologiczne. Aby nowy system ERP zaczął efektywnie wspierać działalność organizacji, kluczowe jest odpowiednie przygotowanie danych, które muszą zostać bezpiecznie i precyzyjnie przeniesione ze starego systemu. Migracja danych ERP to skomplikowany proces, wymagający zarówno zaawansowanej wiedzy technologicznej, jak i dokładnego planowania na poziomie strategicznym. W tym artykule przybliżymy najlepsze metody, wskażemy najczęstsze ryzyka oraz podpowiemy, jak przeprowadzić migrację krok po kroku.
Strategiczna przewaga czy kosztowny mit? Kto wygrywa dzięki chmurze?
Chmura miała być odpowiedzią na wyzwania sektora finansowego: przestarzałą infrastrukturę, rozproszone dane, rosnące oczekiwania klientów i klientek. Dziś korzysta z niej już 91% instytucji, a mimo to tylko nieliczne mówią o realnych efektach. Zaledwie 12% firm maksymalizuje potencjał chmury – tworzy skalowalne platformy, wdraża GenAI, monetyzuje dane. Reszta? Często grzęźnie w kosztach, integracjach i braku kompetencji. Różnica nie tkwi w technologii, ale w strategii – i to ona może zadecydować o miejscu w sektorze, który właśnie wchodzi w kolejną fazę transformacji.
Przeczytaj Również
Jak wycisnąć 100% z Microsoft 365 – sprawdzone rozwiązania
Współczesne organizacje, które integrują swoje systemy ERP czy CRM z Microsoft 365, coraz częściej… / Czytaj więcej
Polska lokalizacja autorstwa IT.integro z certyfikatem zgodności z Ustawą o Rachunkowości
Aplikacja lokalizacyjna dla Dynamics 365 Business Central opracowana przez IT.integro - Polish Loca… / Czytaj więcej
IBM Power11 wyznacza nowe standardy w zakresie infrastruktury IT dla przedsiębiorstw
IBM zaprezentował nową generację serwerów IBM® Power®. Serwery IBM Power11 zostały przeprojektowane… / Czytaj więcej
Nowy model co rok? Fani elektroniki już jej nie kupują, tylko wynajmują
Po co kupować, skoro jutro pojawi się nowszy model? Z takiego założenia wychodzi coraz więcej konsu… / Czytaj więcej
Według najnowszego badania Slack, codzienne korzystanie z AI wzrosło o 233%
Z najnowszego raportu Slack Workforce Index wynika, że wykorzystanie sztucznej inteligencji wśród p… / Czytaj więcej
AI napędza polski przemysł
Sztuczna inteligencja przestaje być wizją przyszłości, a staje się jednym z kluczowych czynników ws… / Czytaj więcej

