Przejdź do głównej treści

BI in-memory nie wszystko złoto co się świeci

Katgoria: BUSINESS INTELLIGENCE / Utworzono: 12 luty 2013

BI in-memory nie wszystko złoto co się świeci

HOGART BUSINESS INTELLIGENCEDziś bez wątpienia można powiedzieć, że ostatnie lata światowego rynku Business Intelligence stały pod znakiem zasadniczej przemiany w stosowanych technologiach oraz w świadomości i poziomie oczekiwań użytkowników biznesowych. Śledząc publikacje branżowe i teksty marketingowe dostawców BI rzadkością są dziś materiały, które nie wspominałyby choć na marginesie o „in-memory”, czy trendzie Data Discovery. Znamienne jest to, że bardzo często są to wypowiedzi firm, które jeszcze kilka lat temu deprecjonowały znaczenie i możliwość szerokiego stosowania właśnie tych technologii. Ta zmiana stanowiska jest bezpośrednią konsekwencją światowego sukcesu takich produktów jak np. QlikView oraz faktu, że są one coraz częściej przyjmowane przez użytkowników BI jako nowy standard jakości oraz nowy wzorzec koncepcji systemów analitycznych w przedsiębiorstwie.

Ponadto, grono użytkowników nowego Business Intelligence rośnie w ogromnym tempie. Dla przykładu QlikView działa obecnie w ponad 25 tys. firm w 100 krajach. Nie bez znaczenia jest fakt, że do tego grona zaliczają się też największe światowe koncerny. To najlepszy dowód, że przełom już nastąpił a zmiana jest nieodwracalna. W tej sytuacji dostawcom narzędzi i usług z epoki OLAP pozostaje jedynie nie odstawać zbytnio od nowych trendów poprzez lepsze lub gorsze naśladownictwo.

W ostatnim czasie widzimy wiele informacji prasowych, artykułów, tematów konferencji branżowych poświęconych wprowadzeniu bądź planom wprowadzenia przez dostawców BI nowych produktów, modułów, funkcjonalności a prawie wszystko to spod znaku „in-memory”. Niestety coraz częściej można odnieść wrażenie, że mamy do czynienia z naśladownictwem nieudolnym bo sprowadzającym się do skopiowania tylko jednej, najbardziej dostrzegalnej cechy oryginalnej koncepcji, nie zwracając przy tym uwagi na wszystkie inne ważne cechy. Efekt bardzo często można porównać z przykrym wrażeniem rozczarowania jaki towarzyszy zakupowi taniej podróbki, która z zewnątrz wygląda jak produkt oryginalny ale po bliższym spojrzeniu ujawnia słabą jakość a czasami nawet brak podstawowej oczekiwanej funkcjonalności. W przypadku BI „in-memory” tą najbardziej widoczną, spektakularną cechą, która jest najchętniej "podrabiana" to prosty fakt przeniesienia składowania danych lub ich przetwarzania z dysków do pamięci operacyjnej. Oczywiście każdy ma prawo na swój sposób definiować termin "in-memory" (nie jest on opatentowany), ale warto sobie uświadamiać które cechy, technologie i funkcjonalności były powodem sukcesu wiodących narzędzi BI nowej generacji, a które są tylko marketingową etykietką naklejaną na tradycyjne podejście do BI. Proste przeniesienie przetwarzania danych z dysku do pamięci z pewnością przyspiesza działanie wybranych funkcji systemu. Należy tu jednak postawić dwa pytania. Czy samo przyspieszenie reakcji systemu na zapytania użytkowników daje gwarancję powodzenia projektu BI i zadowolenia użytkowników? Oraz czy zastosowana technologia BI przyspiesza cały cykl projektowania, przetwarzania i analizy danych, czy tylko daje lepszy komfort pracy użytkownika końcowego podczas gdy zasilanie i przetwarzania danych jest wciąż długotrwałe i nieelastycznie.
  • Według Jamesa Richardsona - analityka rynku BI z Gartner Group - w przepisie na nowoczesne i skuteczne platformy analityczne, czyli takie które przynoszą przełom we współczesnym BI, koniecznie muszą wyróżniać się trzy najważniejsze cechy: Wydajność rozumiana jako szybkość odpowiedzi oraz szybkość przetwarzania dużych wolumenów danych bez eskalacji wymagań sprzętowych (zapewniana przede wszystkim przez asocjacyjne bazy „in-memory” zdolne do przechowywania dużych wolumenów gęsto skompresowanych danych);
  • Elastyczność rozumiana jako bardzo wysoka zdolność narzędzia do szybkiego zaadoptowania zmian wymagań i przebudowy zarówno sposobu wizualizacji danych jak i modelu pobierania i przetwarzania danych. Elastyczność powinna występować zarówno w fazie projektowej jak i w trakcie produkcyjnego użytkowania systemu umożliwiając stosowanie zwinnych metodyk wdrożeniowych, tzw. agile; • Prostota rozumiana jako łatwość użytkowania i projektowania systemu, przejrzystość i atrakcyjność interfejsu graficznego, nakierowanie na użytkownika biznesowego, m.in. dostosowanie do wdrożeń tzw. self-service;

Pominięcie któregokolwiek z tych „sekretnych" składników powoduje, że cała „magiczna" mikstura nie działa. Duża szybkość działania aplikacji jaką daje przetwarzanie w pamięci sama w sobie po prostu nie wystarcza do osiągnięcia pełnego sukcesu. Te trzy proste kryteria dobrze tłumaczą zmienne powodzenie dostawców BI w usprawnianiu posiadanych narzędzi poprzez samo turbodoładowanie technologią „in-memory”.

Powolne działanie, mała podatność na zmiany oraz trudność użytkowania to model tradycyjny, oparty o OLAP, dający najmniejsze szanse na pełen sukces inicjatywy BI. System szybki i wydajny ale nieelastyczny i trudny w obsłudze to z dużą pewnością przepis na spektakularną (i szybką!) porażkę. Użytkownicy nielubiący korzystać z systemu, porzucą go bardzo szybko, gdy okaże się, że nie można go także dostosować w przyszłości do ich nowych potrzeb. System szybki, wydajny i elastyczny ale trudny w obsłudze przy odrobinie szczęścia skończy jako skomplikowane i zapewne bardzo kosztowne narzędzie do eksportu danych do Excela, którym użytkownicy będą woleli się posługiwać w ostatnich etapach prezentacji i analizy. Kolejna kombinacja to dobra wydajność i prostota obsługi ale nie idący z nimi w parze brak elastyczności. W takiej konfiguracji użytkownicy z czasem będą zmuszeniu do tworzenia dużej liczby raportów nadrabiających braki elastyczności modelu. Koszt utrzymania i poziom zadowolenia użytkowników nie będą najprawdopodobniej zadowalające.

Z powyższego zestawienia możliwych scenariuszy widać jak duże znaczenie poza szybkością działania, wynikającą wprost z technologii „in-memory”, mają pozostałe wymagane cechy. Elastyczność i prostotę można uzyskać przede wszystkim z jakości projektu i koncepcji narzędzia analitycznego. Dlatego obecność wszystkich wymaganych cech najłatwiej uzyskać w oprogramowaniu projektowanym od samego początku z wykorzystaniem architektury asocjacyjnych baz „in-memory”, od początku zakładającym, że jest przeznaczone przede wszystkim dla użytkownika biznesowego a nie wyłącznie dla programisty SQL.

Obserwując dostępne narzędzia i usługi BI warto bacznie przyglądać się szczególnie tym, które właśnie teraz ulegają swoistej medialnej transformacji - od koncepcji OLAP do tej nowoczesnej. Trwa swoisty marketingowy wyścig dostawców BI w kategorii systemów "najbardziej in-memory". Warto nie zadowalać się prostymi stwierdzeniami a weryfikować opisywane rozwiązania odnoszące się do „przetwarzania w pamięci” właśnie pod kątem elastyczności, prostoty, kosztów posiadania najlepiej w długi horyzoncie czasowym. Pozwoli to łatwo odróżnić rzeczywistych liderów innowacji w BI od nieudolnych naśladowców.

Marek Grzebyk, Dyrektor Zarządzający Hogart Business Intelligence
Źródło: www.businessintelligence.pl

Najnowsze wiadomości

Europejski przemysł cyfryzuje się zbyt wolno – ERP, chmura i AI stają się koniecznością
BPSCEuropejski przemysł średniej wielkości wie, że cyfryzacja jest koniecznością, ale wciąż nie nadąża za tempem zmian. Ponad 60% firm ocenia swoje postępy w transformacji cyfrowej jako zbyt wolne, mimo rosnącej presji konkurencyjnej, regulacyjnej i kosztowej. Raport Forterro pokazuje wyraźną lukę między świadomością potrzeby inwestycji w chmurę, ERP i AI a realną zdolnością do ich wdrożenia – ograniczaną przez braki kompetencyjne, budżety i gotowość organizacyjną.
Nowa era komunikacji biznesowej, KSeF stał się faktem
SymfoniaOd 1 lutego 2026 roku, w Polsce z sukcesem rozpoczęła się nowa era elektronicznej komunikacji w biznesie. Od tego dnia przedsiębiorcy zaczynają posługiwać się wspólnym standardem we wzajemnej wymianie dokumentów – fakturą ustrukturyzowaną, znaną jako FA(3) lub po prostu faktura KSeF.
Smart Factory w skali globalnej: jak MOWI porządkuje produkcję dzięki danym w czasie rzeczywistym
accevoCyfryzacja produkcji w skali globalnej wymaga dziś spójnych danych, jednolitych standardów i decyzji podejmowanych w czasie rzeczywistym. W środowisku rozproszonych zakładów produkcyjnych tradycyjne raportowanie i lokalne narzędzia IT przestają wystarczać. Przykład MOWI pokazuje, jak wdrożenie rozwiązań Smart Factory i systemu MES może uporządkować zarządzanie produkcją w wielu lokalizacjach jednocześnie, zwiększając przejrzystość procesów, efektywność operacyjną oraz stabilność jakości.
Hakerzy nie kradną już tylko haseł. Oni kradną Twój czas i przyszłość. Jak chronić ERP przed paraliżem?
Hakerzy coraz rzadziej koncentrują się wyłącznie na kradzieży haseł. Ich prawdziwym celem jest dziś sparaliżowanie kluczowych systemów biznesowych, przejęcie kontroli nad danymi i wymuszenie kosztownych decyzji pod presją czasu. System ERP, jako centralny punkt zarządzania finansami, produkcją i logistyką, stał się dla cyberprzestępców najbardziej atrakcyjnym celem. Ten artykuł pokazuje, dlaczego tradycyjne zabezpieczenia przestają wystarczać i jak realnie chronić ERP przed atakami, które mogą zatrzymać firmę z dnia na dzień.
PSI automatyzuje logistykę Rossmanna: Wdrożenie WMS i MFC w Czechach
PSINowoczesne centrum logistyczne Rossmann w Czechach to przykład, jak strategiczne inwestycje w automatykę i systemy IT wspierają skalowanie biznesu w handlu detalicznym. Projekt realizowany przez PSI Polska obejmuje wdrożenie zaawansowanego systemu WMS oraz sterowania przepływem materiałów, tworząc w pełni zintegrowane środowisko dla obsługi rosnących wolumenów sprzedaży i dynamicznego rozwoju e-commerce. To wdrożenie pokazuje, jak technologia staje się fundamentem efektywnej, przyszłościowej logistyki.



Najnowsze artykuły

Magazyn bez błędów? Sprawdź, jak system WMS zmienia codzienność logistyki
SENTEWspółczesna logistyka wymaga nie tylko szybkości działania, lecz także maksymalnej precyzji – to właśnie te czynniki coraz częściej decydują o przewadze konkurencyjnej firm. Nawet drobne pomyłki w ewidencji stanów magazynowych, błędy przy przyjmowaniu dostaw czy nieprawidłowe rozmieszczenie towarów, mogą skutkować poważnymi stratami finansowymi i opóźnieniami w realizacji zamówień. W jaki sposób nowoczesne rozwiązania do zarządzania pomagają unikać takich sytuacji? Czym właściwie różni się tradycyjny system magazynowy od zaawansowanych rozwiązań klasy WMS (ang. Warehouse Management System)? I w jaki sposób inteligentne zarządzanie procesami magazynowymi realnie usprawnia codzienną pracę setek firm?
Jak maksymalizować zyski z MTO i MTS dzięki BPSC ERP?
BPSC FORTERROZysk przedsiębiorstwa produkcyjnego zależy nie tylko od wydajności maszyn, ale przede wszystkim od precyzyjnego planowania, realnych danych i umiejętnego zarządzania procesami. Dlatego firmy, które chcą skutecznie działać zarówno w modelu Make to Stock (MTS), jak i Make to Order (MTO), coraz częściej sięgają po rozwiązania klasy ERP, takie jak BPSC ERP.
Warsztaty analityczne i sesja discovery. Jak wygląda pierwszy etap współpracy z partnerem wdrożeniowym ERP
TODIS ConsultingWdrożenie systemu ERP to jedna z najważniejszych strategicznych decyzji, jakie może podjąć firma. To inwestycja, która ma zrewolucjonizować procesy, zwiększyć efektywność i dać przewagę konkurencyjną. Jednak droga do sukcesu jest pełna potencjalnych pułapek. Wielu menedżerów obawia się nieprzewidzianych kosztów, oporu zespołu czy niedopasowania systemu do realnych potrzeb. Jak zminimalizować to ryzyko? Kluczem jest solidne przygotowanie. Zanim padnie słowo „wdrażamy”, konieczne jest przeprowadzenie trzech fundamentalnych etapów: warsztatów analitycznych, sesji discovery oraz analizy przedwdrożeniowej ERP. To nie są zbędne formalności, ale fundament, na którym zbudujesz sukces całego projektu.
Strategia migracji danych do nowego systemu ERP. Metody, ryzyka i najlepsze praktyki
TODISWdrożenie nowego systemu ERP to dla wielu firm nie tylko krok w stronę unowocześnienia procesów biznesowych, ale także ogromne przedsięwzięcie logistyczne i technologiczne. Aby nowy system ERP zaczął efektywnie wspierać działalność organizacji, kluczowe jest odpowiednie przygotowanie danych, które muszą zostać bezpiecznie i precyzyjnie przeniesione ze starego systemu. Migracja danych ERP to skomplikowany proces, wymagający zarówno zaawansowanej wiedzy technologicznej, jak i dokładnego planowania na poziomie strategicznym. W tym artykule przybliżymy najlepsze metody, wskażemy najczęstsze ryzyka oraz podpowiemy, jak przeprowadzić migrację krok po kroku.
Strategiczna przewaga czy kosztowny mit? Kto wygrywa dzięki chmurze?
Chmura miała być odpowiedzią na wyzwania sektora finansowego: przestarzałą infrastrukturę, rozproszone dane, rosnące oczekiwania klientów i klientek. Dziś korzysta z niej już 91% instytucji, a mimo to tylko nieliczne mówią o realnych efektach. Zaledwie 12% firm maksymalizuje potencjał chmury – tworzy skalowalne platformy, wdraża GenAI, monetyzuje dane. Reszta? Często grzęźnie w kosztach, integracjach i braku kompetencji. Różnica nie tkwi w technologii, ale w strategii – i to ona może zadecydować o miejscu w sektorze, który właśnie wchodzi w kolejną fazę transformacji.

Przeczytaj Również

Real-Time Intelligence – od trendu do biznesowego must-have

Sposób prowadzenia działalności gospodarczej dynamicznie się zmienia. Firmy muszą stale dostosowywa… / Czytaj więcej

EPM – co to jest? Czy jest alternatywą dla BI?

Nowoczesne systemy BI i EPM dostarczają wiedzy potrzebnej do efektywnego zarządzania firmą. Czy zna… / Czytaj więcej

W jaki sposób firmy zwiększają swoją odporność na zmiany?

Do zwiększenia odporności na zmiany, konieczna jest pełna kontrola nad codziennymi procesami zapewn… / Czytaj więcej

Dlaczego systemy kontrolingowe są potrzebne współczesnym firmom?

Narzędzia Corporate Performance Management (CPM) pozwalają na przyśpieszenie tempa podejmowania dec… / Czytaj więcej

Hurtownie danych – funkcje i znaczenie dla BI

Przepisów na sukces biznesu jest na rynku wiele. Nie ulega jednak wątpliwości, że jednym z kluczowy… / Czytaj więcej

Po co dane w handlu? Okazuje się, że ich analityka może dać nawet 30 proc. większe zyski!

Jak wynika z badania firmy doradczej Capgemni, producenci FMCG oraz firmy związane z handlem detali… / Czytaj więcej