Przejdź do głównej treści

8 zastosowań Big Data, o których nie miałeś pojęcia

Katgoria: IT SOLUTIONS / Utworzono: 31 marzec 2016

8 zastosowań Big Data, o których nie miałeś pojęcia

Big Data jest już wszędzie. Nawet tam, gdzie zupełnie nie spodziewalibyśmy się jej spotkać: w lodówce, w piwie, w lesie i w grach na komórki. Korzystają z niej Lady Gaga i Barack Obama. To broń w walce z przestępczością i komarami. Wszechobecność danych w wielu przypadkach okazuje się mieć zbawienny wpływ na nasze życie. Oto 8 zaskakujących przykładów zastosowania tej technologii, której rynkowa wartość według IDC rośnie już w tempie sześciokrotnie szybszym, niż cała branża IT.
 
REKLAMA
ASSECO KSEF
 
1. Big Data z lodówki
Współczesne urządzenia coraz częściej pracują w trybie online, wskutek czego w „Internecie Rzeczy” (The Internet of Things) zaczyna robić się tłoczno. Obok smartfonów, smartwachów i smart TV zaczynają pojawiać się smart-kuchenki, smart-piekarniki, smart-lodówki itd. Według szacunków Cisco do 2020 roku Internet Rzeczy współtworzyć będzie blisko 50 miliardów smart-przedmiotów codziennego użytku. Gartner jest o wiele bardziej ostrożny i redukuje tę liczbę o połowę, mówiąc o 26 mld urządzeń. Co piąte z nich ma dostarczać swojemu producentowi cennej wiedzy o zachowaniach i preferencjach konsumentów, czyli generować Big Data. Warto pamiętać o tym, że paliwem dla Internetu Rzeczy są właśnie dane – tłumaczy Piotr Prajsnar, CEO Cloud Technologies, największej platformy Big Data w tej części Europy.
Już teraz z Big Data korzystają lodówki i zamrażarki, z czego skrzętnie skorzystało ostatnio choćby Tesco. Brytyjska sieć supermarketów przeprowadziła trzyletni projekt analizy danych wysyłanych właśnie przez te urządzenia, rozmieszczone w 120 sklepach w Irlandii. Dane dotyczyły głównie temperatury chłodzenia i czasu pracy urządzeń. Dzięki nim znaleziono sposób na zredukowanie kosztów. Okazało się, że wystarczy skorygować temperaturę chłodzenia o 2 stopnie (z -23 na -21), aby uzyskać oszczędności sięgające blisko 17 mln EUR w skali roku – oczywiście bez obniżenia skuteczności chłodzenia produktów. Teraz Tesco chce wykorzystać Big Data z innych urządzeń do znalezienia sposobu na redukcję emisji dwutlenku węgla w swoich placówkach.

2. Beer Data

Nikt wprawdzie nie upędził piwa, które zamiast chmielowych szyszek zawierałoby ekstrakt z Big Data, ale dla przemysłu browarniczego analiza wielkich zbiorów danych to wcale nie przelewki. Big Data dla wielu pubów okazuje się dziś już równie istotna, co podstawki pod kufle. Intratny biznes na złocistym trunku zrobił ostatnio izraelski startup WeissBeerger, który jako pierwszy na świecie opracował i wdrożył w barach, pubach i restauracjach system monitorujący na żywo: ilość, gatunek i markę spożywanego piwa, mierzone w konkretnych przedziałach czasowych. Zlicza także przychody oraz pozostałe na zapleczu beczki (kegi) piwa. Dzięki temu właściciele pubów wiedzą, jakie marki i o jakich godzinach „piją się najlepiej”. System dostarcza również właścicielom gotowych instrukcji SMS-owych, podpowiadających jakie piwo, w jakich ilościach i w jakie dni powinni zamawiać. Sugeruje także godziny promocji. Ci, którzy zgodzili się na bigdejtyzację piwa (albo beeryzację Big Data, jak kto woli) już spijają piankę sukcesu. Yoav Avlon, właściciel baru Norma Jean w Tel Avivie chwali się wzrostem zysków ze sprzedaży sięgającym od 50% do nawet 80% w skali dnia. Po „Beer Data” sięga ostatnio również Heineken, współpracując z siecią Walmart w ramach programu Shopperception. Piwny potentat chce się dowiedzieć, w którym miejscu w sklepie powinny stać jego puszki, butelki oraz sześciopaki, żeby klienci sięgali po nie chętniej. Testuje zatem różne opcje ustawień swoich produktów: rodzaje półek, niezależne stoiska promocyjne, piwa w lodówkach, różny dobór produktów otaczających, itp.), posiłkując się danymi zebranymi i przetworzonymi właśnie przez Shopperception. System, wykorzystując sensory 3D, podgląda zachowania konsumentów, a nawet wyświetla im promocyjne ceny, jeżeli dłużej zastanawiają się nad kupnem piwa.

3. Im dalej w las – tym więcej Big Data

Global Forest Watch (GFW) używa danych do monitorowania zmian klimatu związanych z nielegalną wycinką drzew, w celu zapobiegania deforestacji. Skala zjawiska jest poważna. Jak wynika z informacji zgromadzonych przez Google oraz University of Maryland w latach 2000-2012 wykarczowano 230 milionów hektarów drzew. Sytuacja jest szczególnie poważna w dolinie Amazonki. Z obliczeń stowarzyszenia Polska Zielona Sieć tylko w ciągu minuty świat traci lasy o powierzchni 36 boisk do piłki nożnej.
GFW postanowiło wykorzystać Big Data do wysłania alarmującego sygnału o kondycji naszej planety. Korzysta z tysięcy zdjęć satelitarnych i na bieżąco dostarcza danych rządom, organizacjom z sektora NGO oraz firmom, które stawiają sobie za cel informowanie o zagrożeniach ekologicznych. Wszystko po to, by móc kontrolować stan zalesienia Ziemi – wyjaśnia Piotr Prajsnar.
Możliwości płynące z analizy Big Data dla środowiska zachwyciły doktora Andrew Steera z World Resource Institute, który powiedział: „Od tego momentu źli chłopcy nie będą mogli się ukryć, a dobrzy zyskają uznanie za ich gospodarność”. To nie wszystko. Big Data dostarcza również informacji służbom takim jak np. straż pożarna, informując je o przypadkach zaprószenia ognia w pobliskich lasach, dzięki czemu mogą one znacznie wcześniej zareagować, a przez to opanować sytuację. Analityka Big Data może jednak służyć nie tylko lasom: już teraz mówi się o wykorzystaniu danych do monitorowania ocieplenia klimatu, stanu pokrywy lodowej a także tempa rozrostu dziury ozonowej. Big Data z lasu wybiega w kosmos.

4. Małżeństwo nie z przypadku: Big Data i gry na komórki

Co wspólnego mają gry na smartfony z Big Data? To małżeństwo nie tylko z rozsądku, ale i z miłości. Gracze to istna kopalnia danych. Może się bowiem okazać, że ich gejmingowe preferencje mogą nam sporo powiedzieć o tym, jaki tryb życia prowadzą, w jakim są wieku, w jakie ciuchy się ubierają, jakiej muzyki słuchają, jakich treści poszukują w Sieci itd.
Można powiedzieć, że obowiązuje tu zasada: „Pokaż mi w co grasz, a powiem Ci kim jesteś”. Dane graczy są dla marketerów i reklamodawców niezwykle cenne: pozwalają bowiem targetować reklamy pod konkretnego posiadacza smartfona, dzięki czemu nie otrzymuje on masowej papki reklamowej, ale oferty produktów, które faktycznie mogą go zainteresować. A jeśli połączy się dane, których źródłem są gry mobilne, z cyfrowymi śladami, jakie zostawiliśmy po sobie surfując po Sieci za pomocą smartfona – to otwiera się przed nami sezam wiedzy o użytkowniku. Dlatego w Big Data trwa właśnie cicha, mobilna rewolucja. Gartner obliczył, że w zeszłym roku ściągnęliśmy z Sieci ponad 127 milionów aplikacji mobilnych. Gry mobilne stanowią pokaźny ich procent – mówi Piotr Prajsnar, CEO Cloud Technologies.
Według danych eMarketera do 2017 roku blisko co trzeci człowiek na ziemi będzie użytkownikiem smartfona. W samych tylko Stanach Zjednoczonych w gry mobilne gra co drugi posiadacz smartfona, a przychody z reklam wyświetlanych graczom wyniosły w ubiegłym około 478 mln USD, stanowiąc tym samym blisko 17,4 proc. całości przychodów w tej branży. Okazuje się, że spersonalizowana reklama mobilna działa: BizReport donosi, że aż 64 proc. posiadaczy smartfonów dokonało zakupu właśnie pod wpływem wyświetlenia spersonalizowanej reklamy mobilnej. eMarketer prognozuje, że do końca 2017 roku w USA wydatki na reklamę na urządzeniach mobilnych prześcigną nawet wydatki na reklamę desktopową. Dlatego dane składające się na portret mobilnego gracza mogą okazać się dla wielu marketerów kurą znoszącą złote jajka. Jeśli tylko firmy będą potrafiły zmonetyzować informacje o graczach.

5. Lady Big Data

Gwiazdki muzyki pop zdają sobie sprawę z siły, jaka drzemie w Big Data. W każdym razie na pewno Lady Gaga zdaje sobie z niej sprawę, choćby pośrednio. Jej manager, Troy Carter, to zdeklarowany miłośnik technologii Big Data. Carter, zastanawiając się nad podbiciem popularności swojej zleceniodawczyni, poświęcił szmat czasu na przekopywanie się przez portrety zdeklarowanych słuchaczy Lady Gagi – i wyszukiwał internautów o podobnych profilach zainteresowań, którzy jeszcze nie zdawali sobie sprawy z tego, że Panią Gagę w ogóle lubią. Zakładał, że skoro ci drudzy interesują się podobnymi rzeczami co fani Gagi, to istnieje spore prawdopodobieństwo, że zachwycą się również takimi hitami jak Poker Face, Alejandro czy Paparazzi. I zakładał słusznie. Dzięki jego wytrwałości w analizie wielkich zbiorów danych (porównywaniu profili behawioralnych użytkowników Internetu) Lady Gaga zanotowała gigantyczny wzrost liczby fanów. Na Facebooku przybyło ich 51 mln, a na Twitterze – 31 mln. Nieźle, zważywszy na fakt, że ojcem sukcesu był domorosły analityk Big Data.
W Big Data marketingu strategia rozszerzania wąskiego targetu poprzez wyszukiwanie podobnych grup użytkowników, z powodzeniem zastosowana (pewnie nieświadomie) przez Troya Cartera, ma swoją fachową nazwę. To look alike modeling albo clone modeling. Bazując na profilu zachowań (zwanym również profilem behawioralnym) naszego najlepszego klienta, firma wykorzystująca Big Data może taki profil „sklonować” i wyszukać wśród pozostałych internautów takich, którzy temu profilowi będą najbliżsi – wyjaśnia Piotr Prajsnar.
6. Obama, Prezydent wybrany dzięki Big Data

Wiele wskazuje na to, że to właśnie Big Data okazało się asem wyciągniętym z rękawa przez sztab Baracka Obamy, podczas wyścigu o fotel prezydenta Stanów Zjednoczonych w 2012 roku. Kampania prezydencka w USA to jedna z największych, najbardziej emocjonujących oraz wyczerpujących gonitw po głosy na całym świecie. Zrozumienie specyfiki i preferencji ludności w każdym ze stanów i każdym z odwiedzanych miast oraz miasteczek, przekracza możliwości zwykłego człowieka.
Dlatego nic dziwnego, że politycy – w tym obecny prezydent USA, Barack Obama – często sięgają po rozwiązania z zakresu machine learning oraz analityków Big Data, którzy odgrywają rolę „górników” (data miners) czy „żniwiarzy” danych (data harvesters). Ich celem jest pozyskiwanie informacji o zachowaniach i preferencjach wyborców w konkretnych miastach i stanach, a następnie doszukiwanie się korelacji między poszczególnymi elementami. To tytaniczna praca – każdej nocy badacze danych ze sztabu Obamy testowali blisko 66 tysięcy symulacji scenariuszy kampanii politycznej, szukając takiej korelacji danych, która zapewni najbardziej optymalny scenariusz, a następnie prezentowali je politycznym doradcom obecnego prezydenta USA – mówi Piotr Prajsnar.
Sasha Issenberg, amerykański dziennikarz śledzący kampanię Obamy, w artykule „A More Perfect Union: How President Obama’s Campaign Used Big Data to Rally Individual Voters” w przekonujący sposób dowodził, że sztab obecnego prezydenta USA korzystał z Big Data nie tylko po to, aby przewidywać zachowania wyborców (predictive modeling), lecz również po to, by na nie wpływać oraz je zmieniać. Hasło wyborcze Obamy z „Yes, we can” równie dobrze mogłoby brzmieć: „Yes, we scan”. Analitycy Obamy „przeskanowali” bowiem bazy wyborców z chirurgiczną precyzją. Po mistrzowsku zarządzali Internetowymi ruchami wyborców, przekierowując ich na strony na Facebooku (33 mln lajków) czy kanał YouTube (240 tys. subskrybentów i 246 mln odsłon), a także stosując polityczny audience targeting na Amazonie. Jakby tego było mało założyli jeszcze stronę mybarackobama.com, funkcjonującą na zasadach sieci społecznościowej, skupiającej głównie młodych sympatyków Obamy i spełniającej funkcję potencjalnej bazy wolontariuszy kampanii. W ostatnich dniach przed wyborami Obamie udało się pozyskać blisko 700 tys. takich wolontariuszy. Według Issenberga Big Data zgromadzona przez sztab Baracka Obamy była aż dziesięciokrotnie większa niż ta zebrana przez konkurencyjnego kandydata, Mitta Romneya. W 2012 roku obamowscy „ludzie od Big Data” zgromadzili aż 5 razy więcej danych niż w wyborach w 2008 roku. Obama, najprawdopodobniej jako pierwszy polityk na świecie, przeprowadził marketing z użyciem danych zakrojony na tak gigantyczną skalę. Być może to właśnie on jest pierwszym prezydentem Big Data.

7. Wunderwaffe na komary

Big Data najskuteczniejszym środkiem komarobójczym? Tak, to nie pomyłka. aWhere Inc. postanowiło przeanalizować dane płynące z satelitów (oddalonych wprawdzie o blisko 35,5 tysiąca km, ale podających dane z dokładnością nawet do pół metra) oraz innych urządzeń, zainstalowane do badania: wilgotności powietrza, temperatury, stopnia nasłonecznienia, głębokości i poziomu wód gruntowych etc. Wszystko po to, by móc z wysoką precyzją określić miejsca, które są (lub staną się) wylęgarniami komarów, bądź ich największymi skupiskami, a następnie zrzucić na te obszary pestycydy i inne środki owadobójcze. Dzięki Big Data nie trzeba przeprowadzać już nalotów dywanowych na przypadkowe miejsca, w których może nie bzykać nawet jeden komar. Big Data umożliwia precyzyjny atak, prosto w target. Dzięki temu możemy w końcu uporać się z insektami, które są jednymi z największych roznosicieli chorób trapiących ludzkość.

8. Tajny funkcjonariusz CIA

Na stronie głównej Centralnej Agencji Wywiadowczej USA (www.CIA.gov) widnieje ogłoszenie o pracę o treści: „Wszystkie departamenty CIA poszukują ciekawych, kreatywnych osób zainteresowanych służbą dla kraju w dziedzinie data science”. CIA szuka obecnie badacza/analityka danych m.in. w Washington D.C. Pełny etat, pensja od 50 tys. USD w górę.

CIA stawia sprawę jasno: „Big Data to dla nas Big Deal” (poważna sprawa). Na pytanie: „A co CIA chce analizować?” – Ira „Gus” Hunt, Chief Technology Officer w CIA, odpowiada lakonicznie i z rozbrajającą szczerością: „Wszystko”. CIA wychodzi z założenia, że im więcej zgromadzi danych o internautach – tym lepiej, bo jakiś użytek na pewno się z nich zrobi. „Big Data to przyszłość, a my tę przyszłość chcemy potrafić kontrolować” – mówi Hunt zdradzając, że CIA zamierza wykorzystywać Big Data przede wszystkim do przewidywania ewentualnych zagrożeń i wzmocnienia bezpieczeństwa kraju, ponieważ to właśnie CIA jest pierwszą linią systemu obrony USA.
Analityka internetowa pełni w bezpieczeństwie USA rolę kluczową. Pozwala udaremniać, wychwytywać i namierzać ataki hakerskie na instytucje publiczne, a także lokalizować potencjalne zagrożenia, wliczając te najniebezpieczniejsze – terrorystyczne – mówi CEO Cloud Technologies.
Cindy Storer, obecnie jeden z głównych mózgów strategicznych w CIA, przyznała otwarcie, że w odnalezieniu Osamy Bin Ladena pomogła amerykańskiemu wywiadowi właśnie analityka danych. Świat z Big Data jest światem bezpieczniejszym niż ten bez Big Data.

Między realnym a wirtualnym?

Granica między światem cyfrowym a analogowym zaciera się z dnia na dzień. Życie digitalizuje się w zawrotnym tempie, a Big Data wnika w każde jego skrawki. Jak szacuje Oracle z roku na rok wolumen Big Data w Sieci rozrasta się o około 40 proc., a wartość samego rynku Big Data rośnie dziś w tempie sześciokrotnie szybszym niż cała branża IT.
Życie offline już się skończyło. Obecnie Internet liczy już 8 Zettabajtów danych, ale do 2020 roku wygenerujemy ich już ponad 45 ZB. IDC przelicza, że na jednego mieszkańca ziemi przypadnie tym samym ponad 5,2 GB danych, a 1/3 z nich będzie przedstawiała sobą dużą wartość, ponieważ zostanie skrupulatnie otagowana i przeanalizowana przez badaczy danych. Prawdziwe wyzwania dopiero zatem przed nami. Przyszłość to Huge Data – mówi prezes największej hurtowni danych w tej części Europy.
Dzisiejszym firmom wykorzystującym Big Data nie chodzi już zatem wyłącznie o gromadzenie, przetwarzanie, segmentowanie i analizowanie danych, co określa się jako „data harvesting”, a następnie ich monetyzację. Big Data to cyfrowe wskazówki, usprawniające nie tylko biznes, ale i codzienne życie. Z badań Forrester wynika, że 56 proc. decydentów w firmach (zwłaszcza IT) przyznaje, że analityka danych pozwala przedsiębiorstwom usprawniać ich decyzje biznesowe – wliczając w to używanie danych do „czynienia dobra”, czyli działań noszących znamiona społecznej odpowiedzialności biznesu. Ten coraz popularniejszy trend określa się już jako „Good Data” czy szerzej: „Big Data for social good”. Anonimowe dane behawioralne pozwalają zrozumieć wzorce zachowań większych grup ludzi, a następnie wykorzystać je do uzyskania pozytywnego wpływu na społeczeństwo.

Oczywiście pamiętajmy, że Big Data nie daje czarno-białych odpowiedzi. Big Data nie myśli wprawdzie za nas, ale rozszerza nasze myślenie i pozwala nam wkraczać na tereny wcześniej niedostępne. Big Data daje Big Picture: umożliwia uzyskanie oglądu na sprawę z nieograniczonej w zasadzie liczby punktów widzenia. Dlatego nie ma przesady w twierdzeniu, że Big Data to dzisiaj cyfrowy bóg.

Autor: Piotr Prjsnar – Prezes Cloud Technologies

Najnowsze wiadomości

Europejski przemysł cyfryzuje się zbyt wolno – ERP, chmura i AI stają się koniecznością
BPSCEuropejski przemysł średniej wielkości wie, że cyfryzacja jest koniecznością, ale wciąż nie nadąża za tempem zmian. Ponad 60% firm ocenia swoje postępy w transformacji cyfrowej jako zbyt wolne, mimo rosnącej presji konkurencyjnej, regulacyjnej i kosztowej. Raport Forterro pokazuje wyraźną lukę między świadomością potrzeby inwestycji w chmurę, ERP i AI a realną zdolnością do ich wdrożenia – ograniczaną przez braki kompetencyjne, budżety i gotowość organizacyjną.
Nowa era komunikacji biznesowej, KSeF stał się faktem
SymfoniaOd 1 lutego 2026 roku, w Polsce z sukcesem rozpoczęła się nowa era elektronicznej komunikacji w biznesie. Od tego dnia przedsiębiorcy zaczynają posługiwać się wspólnym standardem we wzajemnej wymianie dokumentów – fakturą ustrukturyzowaną, znaną jako FA(3) lub po prostu faktura KSeF.
Smart Factory w skali globalnej: jak MOWI porządkuje produkcję dzięki danym w czasie rzeczywistym
accevoCyfryzacja produkcji w skali globalnej wymaga dziś spójnych danych, jednolitych standardów i decyzji podejmowanych w czasie rzeczywistym. W środowisku rozproszonych zakładów produkcyjnych tradycyjne raportowanie i lokalne narzędzia IT przestają wystarczać. Przykład MOWI pokazuje, jak wdrożenie rozwiązań Smart Factory i systemu MES może uporządkować zarządzanie produkcją w wielu lokalizacjach jednocześnie, zwiększając przejrzystość procesów, efektywność operacyjną oraz stabilność jakości.
Hakerzy nie kradną już tylko haseł. Oni kradną Twój czas i przyszłość. Jak chronić ERP przed paraliżem?
Hakerzy coraz rzadziej koncentrują się wyłącznie na kradzieży haseł. Ich prawdziwym celem jest dziś sparaliżowanie kluczowych systemów biznesowych, przejęcie kontroli nad danymi i wymuszenie kosztownych decyzji pod presją czasu. System ERP, jako centralny punkt zarządzania finansami, produkcją i logistyką, stał się dla cyberprzestępców najbardziej atrakcyjnym celem. Ten artykuł pokazuje, dlaczego tradycyjne zabezpieczenia przestają wystarczać i jak realnie chronić ERP przed atakami, które mogą zatrzymać firmę z dnia na dzień.
PSI automatyzuje logistykę Rossmanna: Wdrożenie WMS i MFC w Czechach
PSINowoczesne centrum logistyczne Rossmann w Czechach to przykład, jak strategiczne inwestycje w automatykę i systemy IT wspierają skalowanie biznesu w handlu detalicznym. Projekt realizowany przez PSI Polska obejmuje wdrożenie zaawansowanego systemu WMS oraz sterowania przepływem materiałów, tworząc w pełni zintegrowane środowisko dla obsługi rosnących wolumenów sprzedaży i dynamicznego rozwoju e-commerce. To wdrożenie pokazuje, jak technologia staje się fundamentem efektywnej, przyszłościowej logistyki.



Najnowsze artykuły

Magazyn bez błędów? Sprawdź, jak system WMS zmienia codzienność logistyki
SENTEWspółczesna logistyka wymaga nie tylko szybkości działania, lecz także maksymalnej precyzji – to właśnie te czynniki coraz częściej decydują o przewadze konkurencyjnej firm. Nawet drobne pomyłki w ewidencji stanów magazynowych, błędy przy przyjmowaniu dostaw czy nieprawidłowe rozmieszczenie towarów, mogą skutkować poważnymi stratami finansowymi i opóźnieniami w realizacji zamówień. W jaki sposób nowoczesne rozwiązania do zarządzania pomagają unikać takich sytuacji? Czym właściwie różni się tradycyjny system magazynowy od zaawansowanych rozwiązań klasy WMS (ang. Warehouse Management System)? I w jaki sposób inteligentne zarządzanie procesami magazynowymi realnie usprawnia codzienną pracę setek firm?
Jak maksymalizować zyski z MTO i MTS dzięki BPSC ERP?
BPSC FORTERROZysk przedsiębiorstwa produkcyjnego zależy nie tylko od wydajności maszyn, ale przede wszystkim od precyzyjnego planowania, realnych danych i umiejętnego zarządzania procesami. Dlatego firmy, które chcą skutecznie działać zarówno w modelu Make to Stock (MTS), jak i Make to Order (MTO), coraz częściej sięgają po rozwiązania klasy ERP, takie jak BPSC ERP.
Warsztaty analityczne i sesja discovery. Jak wygląda pierwszy etap współpracy z partnerem wdrożeniowym ERP
TODIS ConsultingWdrożenie systemu ERP to jedna z najważniejszych strategicznych decyzji, jakie może podjąć firma. To inwestycja, która ma zrewolucjonizować procesy, zwiększyć efektywność i dać przewagę konkurencyjną. Jednak droga do sukcesu jest pełna potencjalnych pułapek. Wielu menedżerów obawia się nieprzewidzianych kosztów, oporu zespołu czy niedopasowania systemu do realnych potrzeb. Jak zminimalizować to ryzyko? Kluczem jest solidne przygotowanie. Zanim padnie słowo „wdrażamy”, konieczne jest przeprowadzenie trzech fundamentalnych etapów: warsztatów analitycznych, sesji discovery oraz analizy przedwdrożeniowej ERP. To nie są zbędne formalności, ale fundament, na którym zbudujesz sukces całego projektu.
Strategia migracji danych do nowego systemu ERP. Metody, ryzyka i najlepsze praktyki
TODISWdrożenie nowego systemu ERP to dla wielu firm nie tylko krok w stronę unowocześnienia procesów biznesowych, ale także ogromne przedsięwzięcie logistyczne i technologiczne. Aby nowy system ERP zaczął efektywnie wspierać działalność organizacji, kluczowe jest odpowiednie przygotowanie danych, które muszą zostać bezpiecznie i precyzyjnie przeniesione ze starego systemu. Migracja danych ERP to skomplikowany proces, wymagający zarówno zaawansowanej wiedzy technologicznej, jak i dokładnego planowania na poziomie strategicznym. W tym artykule przybliżymy najlepsze metody, wskażemy najczęstsze ryzyka oraz podpowiemy, jak przeprowadzić migrację krok po kroku.
Strategiczna przewaga czy kosztowny mit? Kto wygrywa dzięki chmurze?
Chmura miała być odpowiedzią na wyzwania sektora finansowego: przestarzałą infrastrukturę, rozproszone dane, rosnące oczekiwania klientów i klientek. Dziś korzysta z niej już 91% instytucji, a mimo to tylko nieliczne mówią o realnych efektach. Zaledwie 12% firm maksymalizuje potencjał chmury – tworzy skalowalne platformy, wdraża GenAI, monetyzuje dane. Reszta? Często grzęźnie w kosztach, integracjach i braku kompetencji. Różnica nie tkwi w technologii, ale w strategii – i to ona może zadecydować o miejscu w sektorze, który właśnie wchodzi w kolejną fazę transformacji.

Przeczytaj Również

Strategiczna przewaga czy kosztowny mit? Kto wygrywa dzięki chmurze?

Chmura miała być odpowiedzią na wyzwania sektora finansowego: przestarzałą infrastrukturę, rozprosz… / Czytaj więcej

Nowe narzędzie, nowe możliwości – Adrian Guzy z CTDI o innowacyjności, kulturze pracy z danymi i analityce w Microsoft Fabric

W nowej siedzibie CTDI w Sękocinie Starym pod Warszawą tafle szkła odbijają poranne słońce, a wnętr… / Czytaj więcej

Hiperautomatyzacja: kolejny etap rewolucji czy buzzword?

Automatyzacja to już nie tylko boty i proste skrypty – kolejnym krokiem jest hiperautomatyzacja, kt… / Czytaj więcej

Jak agenci AI zrewolucjonizują przemysł, zwiększą produktywność i obniżą koszty

Obecnie każda firma chce być firmą AI, ale według McKinsey tylko 1% przedsiębiorstw uważa, że osiąg… / Czytaj więcej

Technologiczny wyścig z czasem – czy automatyzacja pomoże załatać lukę technologiczną w przemyśle?

Sytuacja polskiego przemysłu nie jest łatwa – według ostatnich danych GUS wskaźnik produkcji sprzed… / Czytaj więcej

Niedojrzałość danych: blokada na drodze do zaawansowanej sztucznej inteligencji

Każda ankieta dotycząca generatywnej sztucznej inteligencji, wypełniana przez osoby z branży techno… / Czytaj więcej