Przejdź do głównej treści

Nowoczesne systemy Business IntelligenceI – OLAP kontra „In-Memory”

Katgoria: BUSINESS INTELLIGENCE / Utworzono: 21 marzec 2012

Nowoczesne systemy Business Intelligence – OLAP kontra „In-Memory”

DOMDATA - Business Intelligence, ControllingTrudno dziś wyobrazić sobie funkcjonowanie przedsiębiorstwa bez analiz dotyczących trendów sprzedaży, wyników finansowych czy innych kluczowych z punktu widzenia danej firmy wskaźników efektywności jej działania. Jednym z głównych służących do tego celu narzędzi są systemy Business Intelligence.
Obecnie na rynku systemów klasy Business Intelligence (BI) można się spotkać z dwoma podstawowymi ich rodzajami. Pierwszy z nich należy do klasycznych systemów bazujących na technologiach wyszukiwania i przetwarzania danych OLAP (ang. OnLine Analytical Processing), drugi to systemy klasy „In-Memory”. Przyjrzyjmy się zatem, na czym polegają różnice między nimi, dla kogo są one przeznaczone i jakie kryteria należy brać pod uwagę przed zakupem systemu BI należącego do jednej lub drugiej kategorii.

Architektura systemów

Zacznijmy może od różnic. Podstawowa różnica między systemami BI „In-Memory” i OLAP leży w samej ich architekturze. Klasyczne rozwiązania techniczne, wykorzystujące technologię OLAP, są oparte o centralnie zarządzane serwery, z zainstalowaną na nich hurtownią danych, w której przechowywane są wszelkie informacje potrzebne do prowadzenia wielowymiarowych analiz zarządczych. Dane te pochodzą z systemów źródłowych, takich jak systemy ERP, CRM lub innych systemów ewidencjonujących określone transakcje.

W tego typu systemach nacisk położony jest na wydajność i moc obliczeniową centralnego miejsca, czyli serwera OLAP, do którego podłączeni są poszczególni użytkownicy. Wszelkie operacje odbywają właśnie na centralnym serwerze, a jego klienci otrzymują dane już przetworzone, np. w formie różnych analiz: raportów, tabel przestawnych itp.

Taka architektura sprawia, że w praktyce nie ma wielkiego znaczenia, jaką mocą obliczeniową dysponują komputery użytkowników końcowych. Ten model systemów Business Intelligence bazujących na technologii OLAP ma ścisły związek z historią rozwoju sprzętu komputerowego. Powstał on w czasach, gdy tylko potężne serwery, np. komputery klasy mainframe, były w stanie poradzić sobie z szybkim przetwarzaniem ogromnych ilości danych i takie operacje były nie do pomyślenia w przypadku komputerów osobistych.

Dziś sytuacja zmieniła się diametralnie. Współczesne pecety niejednokrotnie przewyższają mocą obliczeniową dawne serwery i z powodzeniem są w stanie poradzić sobie z większością zadań, jakie wykonują użytkownicy systemów klasy BI. Ten fakt leży u podstaw powstania nowej generacji systemów Business Intelligence, tzw. systemów „In-Memory”, których architektura pozwala na przetwarzanie danych właśnie w pamięci operacyjnej komputerów osobistych. Czy to oznacza, że można połączyć system BI „In-Memory” z dowolnym systemem transakcyjnym? Teoretycznie tak.

W praktyce bywa nieco inaczej i ma to związek z efektywnością zarządzania zasobami firmy. Aby maksymalizować efektywność gospodarowania zasobami, nie ma zazwyczaj sensu, aby cała zawartość bazy danych źródłowego systemu transakcyjnego (firmowy ERP, CRM czy inny przeznaczony do obsługi konkretnego obszaru funkcjonalnego system) była ładowana do pamięci stacji roboczych wszystkich użytkowników systemu BI. Trafiają tam tylko dane źródłowe z obszarów, które interesują poszczególne osoby: np. sprzedaż, koszty, stany magazynowe, klienci itp.

Opisując w dużym uproszczeniu, menedżer, który chce analizować wybrane obszary działalności firmy, otrzymuje na swój komputer odpowiedni zakres danych i na jego podstawie może prowadzić dowolne analizy, generować raporty, sprawdzać wybrane wskaźniki ekonomiczne itp. Nie potrzebuje do tego celu mocy obliczeniowej serwera, tak jak to miało miejsce w systemach korzystających z architektury opartej na technologii OLAP.

Kryteria wyboru

Niewątpliwie systemy klasy „In-Memory” cieszą się coraz większym zainteresowaniem. Spory wpływ na to mają takie czynniki, jak coraz niższe ceny sprzętu, w tym kluczowej dla tego typu systemów BI pamięci RAM, oraz wydajniejsze (i również coraz tańsze) procesory. Dzięki temu udaje się osiągnąć stosunkowo krótki czas implementacji systemów BI typu „In-Memory” oraz niższe koszty związanych z nimi usług wdrożeniowych. Stając przed wyborem typu systemu Business Intelligence, trzeba jednak bardzo dokładnie rozważyć kilka dodatkowych kwestii.

Oszczędności w budżecie i czasie potrzebnym na wdrożenie to bardzo atrakcyjne korzyści, jednak, podobnie jak w wypadku wdrożeń systemów transakcyjnych, nie tylko one decydują o powodzeniu całego przedsięwzięcia. Bardzo ważne są również przeznaczenie systemu, liczba i lokalizacja użytkowników, organizacja procesów biznesowych czy choćby ilość i jakość danych źródłowych. W przypadku pierwszego elementu, czyli przeznaczenia systemu, chodzi o to, czy potrzebujemy narzędzia tylko do analiz, czy też może do budżetowania, raportowania i zaawansowanych symulacji np. z wykorzystaniem statystyki. Do tego dochodzi kwestia zakresu tych zastosowań, to znaczy, czy analizujemy i prognozujemy tylko wybrany wycinek z działalności naszej firmy, czy też zajmujemy się kompleksowo wszystkimi obszarami aktywności gospodarczej.

Z kolei liczba i lokalizacja użytkowników, zwłaszcza w powiązaniu z ich funkcją w organizacji, firmowym obiegiem informacji i wymaganiami odnośnie aktualności danych determinuje sposób pracy z systemem BI. Chodzi tu o pracę z aplikacją (tzw. gruby klient) w trybie przeglądarkowym, zintegrowanym z systemem BI arkuszem kalkulacyjnym, ewentualnie pracą w trybie off-line, na wybranej porcji danych – tzw. kostce lub kostkach lokalnych, które replikowane są z hurtownią/repozytorium systemu co określony interwał czasu lub na żądanie. Lokalizacja i infrastruktura mają też wpływ na to, czy będzie istniała możliwość przesyłania ze źródła dość znaczącej ilości danych i jak długo będzie to trwało. W tym wypadku duże znaczenie ma chociażby przepustowość dostępnych łączy internetowych.

Organizacja procesów biznesowych to zwykle kwestie związane z funkcjami poszczególnych użytkowników w procesach budżetowania (np. bottom-up lub up- -bottom) i raportowania, mechanizmami wyliczania rentowności, marż, prowizji, alokacji, procedury bezpieczeństwa związane z przechowywaniem i przetwarzaniem danych. itp. To wszystko może mieć wpływ na finalny kształt architektury systemu.

A co z danymi?

W tym miejscu warto podkreślić też kwestię wyboru przez organizację modelu hurtowni i procesu dostępu do danych – czy firma chce tworzyć centralną hurtownię korporacyjną, obejmującą wszystkie obszary działalności przedsiębiorstwa, czy też zostawia kwestię systemów raportujących poszczególnym działom w organizacji i pozwala na rozproszenia modelu. Kluczową decyzją jest więc zamodelowanie procesu dostępu do danych i ich ewentualnej integracji.

Szczególnie ważnym elementem analizy przedwdrożeniowej każdego rodzaju systemu BI jest jakość danych źródłowych. Od tego, w jakim stanie są dane źródłowe importowane z systemów transakcyjnych, zależy później jakość analiz dostępnych w naszym rozwiązaniu BI. Problem jakości danych źródłowych istniał już w czasach klasycznych systemów BI. Wtedy, a również i teraz, gdy tego typu narzędzia w dalszym ciągu dobrze się sprzedają, nieodzownym etapem wdrożenia była faza czyszczenia danych. Polegała ona na usunięciu wszelkich braków i niejednoznaczności, które mogą być przyczyną błędów w interpretacji wyników analizowanego zjawiska. Jeżeli zatem skłaniamy się ku systemom BI klasy „In-Memory”, nie ulegajmy zbyt pochopnie magii słów o krótkim czasie wdrożenia i koniecznie zadbajmy o jakość danych zgromadzonych w naszych systemach źródłowych.

Na rynku są sprawdzone metody zapewnienia odpowiedniej jakości tych danych, warto więc poświęcić dodatkowy czas na usunięcie wszelkich nieprawidłowości i niejednoznaczności, np. w nazewnictwie produktów, klientów, adresów, nazwach miast, formatach daty, systemach walutowych czy innych miarach stosowanych do opisania zasobów naszej firmy. Dobrą praktyką jest przygotowanie danych dla analiz w systemach „In-Memory” w klasycznym relacyjnym repozytorium, w którym dokonamy wszystkich operacji czyszczenia danych, tak aby informacje przekazywane do pamięci operacyjnej były już zweryfikowane pod kątem spójności, czystości i jednoznaczności.

W wielkich, międzynarodowych korporacjach, instytucjach finansowych czy telekomach liczba transakcji, które są ewidencjonowane każdego dnia, sprawia, że architektura BI korzystająca z systemów OLAP i centralnej hurtowni danych ciągle ma przewagę nad systemami „In-Memory”. W wypadku takich podmiotów ważne są również wspominane wcześniej organizacja procesów biznesowych oraz polityka bezpieczeństwa przechowywania i przetwarzania danych. To one w znacznym stopniu determinują kształt architektury systemów informatycznych przedsiębiorstwa. Jednak i tutaj systemy „In-Memory” sprawdzają się doskonale. Pełnią one wówczas funkcję tzw. datamartów, czyli czegoś na kształt minihurtowni danych, połączonych bezpośrednio z korporacyjnymi hurtowniami danych.

Źródło: www.domdata.pl

Najnowsze wiadomości

Europejski przemysł cyfryzuje się zbyt wolno – ERP, chmura i AI stają się koniecznością
BPSCEuropejski przemysł średniej wielkości wie, że cyfryzacja jest koniecznością, ale wciąż nie nadąża za tempem zmian. Ponad 60% firm ocenia swoje postępy w transformacji cyfrowej jako zbyt wolne, mimo rosnącej presji konkurencyjnej, regulacyjnej i kosztowej. Raport Forterro pokazuje wyraźną lukę między świadomością potrzeby inwestycji w chmurę, ERP i AI a realną zdolnością do ich wdrożenia – ograniczaną przez braki kompetencyjne, budżety i gotowość organizacyjną.
Nowa era komunikacji biznesowej, KSeF stał się faktem
SymfoniaOd 1 lutego 2026 roku, w Polsce z sukcesem rozpoczęła się nowa era elektronicznej komunikacji w biznesie. Od tego dnia przedsiębiorcy zaczynają posługiwać się wspólnym standardem we wzajemnej wymianie dokumentów – fakturą ustrukturyzowaną, znaną jako FA(3) lub po prostu faktura KSeF.
Smart Factory w skali globalnej: jak MOWI porządkuje produkcję dzięki danym w czasie rzeczywistym
accevoCyfryzacja produkcji w skali globalnej wymaga dziś spójnych danych, jednolitych standardów i decyzji podejmowanych w czasie rzeczywistym. W środowisku rozproszonych zakładów produkcyjnych tradycyjne raportowanie i lokalne narzędzia IT przestają wystarczać. Przykład MOWI pokazuje, jak wdrożenie rozwiązań Smart Factory i systemu MES może uporządkować zarządzanie produkcją w wielu lokalizacjach jednocześnie, zwiększając przejrzystość procesów, efektywność operacyjną oraz stabilność jakości.
Hakerzy nie kradną już tylko haseł. Oni kradną Twój czas i przyszłość. Jak chronić ERP przed paraliżem?
Hakerzy coraz rzadziej koncentrują się wyłącznie na kradzieży haseł. Ich prawdziwym celem jest dziś sparaliżowanie kluczowych systemów biznesowych, przejęcie kontroli nad danymi i wymuszenie kosztownych decyzji pod presją czasu. System ERP, jako centralny punkt zarządzania finansami, produkcją i logistyką, stał się dla cyberprzestępców najbardziej atrakcyjnym celem. Ten artykuł pokazuje, dlaczego tradycyjne zabezpieczenia przestają wystarczać i jak realnie chronić ERP przed atakami, które mogą zatrzymać firmę z dnia na dzień.
PSI automatyzuje logistykę Rossmanna: Wdrożenie WMS i MFC w Czechach
PSINowoczesne centrum logistyczne Rossmann w Czechach to przykład, jak strategiczne inwestycje w automatykę i systemy IT wspierają skalowanie biznesu w handlu detalicznym. Projekt realizowany przez PSI Polska obejmuje wdrożenie zaawansowanego systemu WMS oraz sterowania przepływem materiałów, tworząc w pełni zintegrowane środowisko dla obsługi rosnących wolumenów sprzedaży i dynamicznego rozwoju e-commerce. To wdrożenie pokazuje, jak technologia staje się fundamentem efektywnej, przyszłościowej logistyki.



Najnowsze artykuły

Magazyn bez błędów? Sprawdź, jak system WMS zmienia codzienność logistyki
SENTEWspółczesna logistyka wymaga nie tylko szybkości działania, lecz także maksymalnej precyzji – to właśnie te czynniki coraz częściej decydują o przewadze konkurencyjnej firm. Nawet drobne pomyłki w ewidencji stanów magazynowych, błędy przy przyjmowaniu dostaw czy nieprawidłowe rozmieszczenie towarów, mogą skutkować poważnymi stratami finansowymi i opóźnieniami w realizacji zamówień. W jaki sposób nowoczesne rozwiązania do zarządzania pomagają unikać takich sytuacji? Czym właściwie różni się tradycyjny system magazynowy od zaawansowanych rozwiązań klasy WMS (ang. Warehouse Management System)? I w jaki sposób inteligentne zarządzanie procesami magazynowymi realnie usprawnia codzienną pracę setek firm?
Jak maksymalizować zyski z MTO i MTS dzięki BPSC ERP?
BPSC FORTERROZysk przedsiębiorstwa produkcyjnego zależy nie tylko od wydajności maszyn, ale przede wszystkim od precyzyjnego planowania, realnych danych i umiejętnego zarządzania procesami. Dlatego firmy, które chcą skutecznie działać zarówno w modelu Make to Stock (MTS), jak i Make to Order (MTO), coraz częściej sięgają po rozwiązania klasy ERP, takie jak BPSC ERP.
Warsztaty analityczne i sesja discovery. Jak wygląda pierwszy etap współpracy z partnerem wdrożeniowym ERP
TODIS ConsultingWdrożenie systemu ERP to jedna z najważniejszych strategicznych decyzji, jakie może podjąć firma. To inwestycja, która ma zrewolucjonizować procesy, zwiększyć efektywność i dać przewagę konkurencyjną. Jednak droga do sukcesu jest pełna potencjalnych pułapek. Wielu menedżerów obawia się nieprzewidzianych kosztów, oporu zespołu czy niedopasowania systemu do realnych potrzeb. Jak zminimalizować to ryzyko? Kluczem jest solidne przygotowanie. Zanim padnie słowo „wdrażamy”, konieczne jest przeprowadzenie trzech fundamentalnych etapów: warsztatów analitycznych, sesji discovery oraz analizy przedwdrożeniowej ERP. To nie są zbędne formalności, ale fundament, na którym zbudujesz sukces całego projektu.
Strategia migracji danych do nowego systemu ERP. Metody, ryzyka i najlepsze praktyki
TODISWdrożenie nowego systemu ERP to dla wielu firm nie tylko krok w stronę unowocześnienia procesów biznesowych, ale także ogromne przedsięwzięcie logistyczne i technologiczne. Aby nowy system ERP zaczął efektywnie wspierać działalność organizacji, kluczowe jest odpowiednie przygotowanie danych, które muszą zostać bezpiecznie i precyzyjnie przeniesione ze starego systemu. Migracja danych ERP to skomplikowany proces, wymagający zarówno zaawansowanej wiedzy technologicznej, jak i dokładnego planowania na poziomie strategicznym. W tym artykule przybliżymy najlepsze metody, wskażemy najczęstsze ryzyka oraz podpowiemy, jak przeprowadzić migrację krok po kroku.
Strategiczna przewaga czy kosztowny mit? Kto wygrywa dzięki chmurze?
Chmura miała być odpowiedzią na wyzwania sektora finansowego: przestarzałą infrastrukturę, rozproszone dane, rosnące oczekiwania klientów i klientek. Dziś korzysta z niej już 91% instytucji, a mimo to tylko nieliczne mówią o realnych efektach. Zaledwie 12% firm maksymalizuje potencjał chmury – tworzy skalowalne platformy, wdraża GenAI, monetyzuje dane. Reszta? Często grzęźnie w kosztach, integracjach i braku kompetencji. Różnica nie tkwi w technologii, ale w strategii – i to ona może zadecydować o miejscu w sektorze, który właśnie wchodzi w kolejną fazę transformacji.

Przeczytaj Również

Real-Time Intelligence – od trendu do biznesowego must-have

Sposób prowadzenia działalności gospodarczej dynamicznie się zmienia. Firmy muszą stale dostosowywa… / Czytaj więcej

EPM – co to jest? Czy jest alternatywą dla BI?

Nowoczesne systemy BI i EPM dostarczają wiedzy potrzebnej do efektywnego zarządzania firmą. Czy zna… / Czytaj więcej

W jaki sposób firmy zwiększają swoją odporność na zmiany?

Do zwiększenia odporności na zmiany, konieczna jest pełna kontrola nad codziennymi procesami zapewn… / Czytaj więcej

Dlaczego systemy kontrolingowe są potrzebne współczesnym firmom?

Narzędzia Corporate Performance Management (CPM) pozwalają na przyśpieszenie tempa podejmowania dec… / Czytaj więcej

Hurtownie danych – funkcje i znaczenie dla BI

Przepisów na sukces biznesu jest na rynku wiele. Nie ulega jednak wątpliwości, że jednym z kluczowy… / Czytaj więcej

Po co dane w handlu? Okazuje się, że ich analityka może dać nawet 30 proc. większe zyski!

Jak wynika z badania firmy doradczej Capgemni, producenci FMCG oraz firmy związane z handlem detali… / Czytaj więcej