4-7 minut

Big Data. 5 faktów, których jeszcze nie poznał każdy menedżer

Rewolucja technologiczna zalała nas informacjami. Ilość danych zgromadzonych w bazach pojedynczych koncernów jest dziś większa niż całość informacji wytworzonych przez ludzkość do początku XXI wieku. Zarządzanie tak rozległymi zbiorami jest coraz trudniejsze. Dlatego też specjaliści od analizy danych od kilkudziesięciu lat szukają sposobu na wykorzystanie tego strumienia informacji.

Pojawienie się nowych rozwiązań do analizy danych skokowo przyspiesza przetwarzanie informacji, wnioskowanie i podejmowanie decyzji biznesowych,jest także źródłem innowacji: inkrementalnych (uzupełniających podstawową ofertę firmy) i przełomowych (prowadzących do przebudowy firm lub rynków).

Przykładem innowacji inkrementalnych jest portal turystyczny Kayak, wykorzystujący Big Data do prognozowania cen biletów lotniczych w kolejnych siedmiu dniach na podstawie historycznych zmian (źródło: Thomas H. Davenport, „Jak zarządzać danymi w firmie: analityka 3.0”). Służą temu opracowane przez firmę algorytmy i modele matematyczne. Użytkownicy portalu mogą dokonać korzystniejszej transakcji, widząc informacje dotyczące tego, czy cena biletu wzrośnie lub spadnie wraz z rekomendacją kupuj/czekaj i procentowym prawdopodobieństwem prognozy.

Doskonałym przykładem przełomowej innowacji opartej na zaawansowanej analityce biznesowej jest chociażby Netflix i sektor wypożyczalni wideo oraz oferty video-on-demand. Został on zrewolucjonizowany przez Netflix co najmniej dwa razy. Najpierw, gdy dzięki użyciu systemów business intelligence firma wprowadziła unikalny system personalizacji ofert, a także elastycznej polityki cenowej faworyzującej sporadycznych, a więc tańszych w obsłudze klientów. I teraz, kiedy firma korzysta z Big Data do analizy niemal wszystkich preferencji odbiorców usług, począwszy od gatunku i charakteru filmu, a skończywszy na… kolorystyce oraz układzie okładki filmu lub plakatu.

Rewolucyjny potencjał Big Data jest na tyle duży, że w ciągu kilku lat może całkowicie zburzyć obowiązujące dziś modele biznesowe. Dlatego menedżerowie powinni zrozumieć,na czym polega ten trend, a także jak wpłynie na struktury i model działania ich firmy oraz jej otoczenia.

Poniżej prezentujemy 5 podstawowych reguł biznesowych, które definiują istotę Big Data.

1. Rozmiar nie ma znaczenia

Termin „Big Data” sugeruje, że nowy typ systemów analitycznych po prostu przetwarza ogromne ilości danych. W praktyce jednak to nie terabajty danych decydują o jego rewolucyjnych wprost zaletach. Tym, co odróżnia platformy Big Data od nawet największych „hurtowni danych”, jest zdolność do przetwarzania danych w różnych formatach, a nawet zupełnie nieustrukturyzowanych – takich jak na przykład aktywność klientów w serwisach społecznościowych bądź zwyczaje zakupowe.

Big Data to w istocie zbiór trendów. Posiadając taki zbiór, firma analizuje w czasie rzeczywistym olbrzymią ilość danych i jest w stanie zaproponować odbiorcy, indywidualnemu albo biznesowemu, realną wartość. Dzięki temu firmy mogą analizować mikrotrendy w sprzedaży swoich produktów lub usług i na bieżąco dostosowywać do nich swoją ofertę, maksymalizując w ten sposób własne przychody i zyski.

2. Big Data to rozwiązanie dla dużych firm

Jeden z najbardziej rozpowszechnionych mitów o nowoczesnej analityce zakłada, że tego typu rozwiązania mogą się przydać tylko wielkim i bogatym firmom. Nic bardziej mylnego. Analiza 1 terabajta danych to koszt rzędu kilku tysięcy złotych, z kolei zakup serwera zarządzającego taką ilością danych to koszt kilkudziesięciu tysięcy złotych, choć i tu z pomocą przychodzi technologia chmurowa, umożliwiająca wynajem mocy obliczeniowej tylko na czas potrzebny do przeprowadzenia analizy, bez konieczności zakupu serwerów. Firmy, dla których nawet takie sumy są zbyt duże, mogą skorzystać z oferty analiz w formie usług lub wynająć konsultantów, którzy przeprowadzą projekt analityczny przy wykorzystaniu własnych narzędzi.

3. Więcej nie oznacza lepiej

Z samego faktu, że firma wie więcej o swoim otoczeniu, nic jeszcze nie wynika. Najważniejsze jest dobre przełożenie zgromadzonych informacji na efekty biznesowe. Tak jak w szkole, w biznesie wygrywa nie ten, kto więcej wie, ale ten, kto lepiej potrafi wydobyć i wykorzystać zgromadzone informacje.

Świetnym przykładem tego zjawiska jest sieć Marriott (źródło: Thomas H. Davenport, „Jak zarządzać danymi w firmie: analityka 3.0”). Głównym źródłem przychodów dla firmy jest zapełnienie jak największej liczby dostępnych pokoi, zaoferowanych po optymalnej cenie. Optymalnej, a więc takiej, która zapewni zysk hotelowi i będzie atrakcyjna dla klientów. Aby osiągnąć ten cel, sieć zintegrowała system do dokonywania rezerwacji z rozwiązaniem analitycznym służącym do analizy online cen zakupu usług na całym świecie. Dzięki temu wie, z jakim wyprzedzeniem klienci rezerwują pokoje, jakimi kryteriami się kierują, a także w jakiej cenie są gotowi w danym okresie wynająć pokój. Wiedza ta służy globalnemu zespołowi ekspertów do optymalizacji przychodów generowanych przez sprzedaż. Pozwala także na rozdysponowanie wszystkich pokoi dostępnych w danej lokalizacji (hotelu, mieście, regionie) wśród poszukujących noclegu.

4. Big Data to rewolucja w zarządzaniu, a nie w informatyce

Upowszechnienie narzędzi i metod używania wielkich zbiorów danych może zmienić całkowicie nie tylko metody zarządzania informacjami, ale także organizację i sposób zarządzania firmami. Efektywne wykorzystanie narzędzi Big Data w firmie wymaga przebudowy struktur wewnętrznych i powołania specjalnej komórki lub departamentu łączącego siły analityków i menedżerów z kompetencjami specjalistów ds. technologii.

Ważnym elementem rewolucji związanej z Big Data jest także zmiana sposobów podejmowania decyzji i odejście od modelu intuicyjnego w stronę metod typowych dla ośrodków naukowych, ze stawianiem hipotez i ustrukturyzowanym procesem ich weryfikacji.

5. Nowe rozwiązania wymagają nowych kompetencji

Firmy od co najmniej 20 lat szukają sposobów na efektywną analizę danych. Niektóre z nich dorobiły się w tym czasie całych zespołów specjalistów zajmujących się analizą danych. Niestety, kompetencje potrzebne do efektywnej analizy danych za pomocą Big Data wykraczają poza umiejętności typowego analityka.

Idealny kandydat na naukowca ds. danych to ekspert od liczb i metod statystycznych oraz obliczeniowych, rozumiejący prawo wielkich liczb. Dodatkowo musi być obdarzony dociekliwością i gotowością do poszukiwań, a nawet kwestionowania status quo. Kompetencje te powinny iść w parze z wiedzą biznesową (np. doświadczeniem w projektowaniu kampanii marketingowych), która nie tylko pozwoli na umiejętne sformułowanie problemu badawczego, ale także umożliwi przekonanie innych przedstawicieli firmy do proponowanych koncepcji.

Choć narzędzia do analizy danych są wykorzystywane w biznesie od co najmniej 40 lat, to dopiero nowoczesne systemy business intelligence i przede wszystkim, Big Data umożliwiły upowszechnienie rozwiązań do przetwarzania informacji szerokim rzeszom pracowników firm. To spore wyzwanie zarówno organizacyjne, jak i technologiczne.

Od Mainframe’ów do Big Data: ewolucja analizy danych

W czasach wielkich komputerów klasy mainframe programiści stworzyli systemy wspomagania decyzji strategicznych (decision suport systems) wykorzystywane przez korporacje i rządy. Skomplikowane rozwiązania oferowały trafne, ale czasochłonne analizy, których przygotowanie wymagało wsparcia przez wielu programistów. W miarę upowszechniania aplikacji transakcyjnych, wzrostu liczby dostępnych danych, a także rosnącej automatyzacji przetwarzania – systemy do analizy danych (określa ne już mianem business intelligence) wrastały w firmy, stając się jednym z podstawowych instrumentów pracy menedżerów, umożliwiających przetwarzanie danych ustrukturyzowanych, np. pochodzących ze zintegrowanych systemów do zarządzania przedsiębiorstwem.

W miarę rozwoju gospodarki internetowej i mediów społecznościowych na horyzoncie pojawiło się jednak nowe wyzwanie: konieczność wykorzystania danych nieustrukturyzowanych. Odpowiedzią na ten problem i na razie ostatnim etapem ewolucji systemów analitycznych są rozwiązania określane w skrócie mianem Big Data. Zadaniem tego typu systemów jest błyskawiczne analizowanie zróżnicowanych zbiorów danych i wychwytywanie nieoczekiwanych zależności, trudnych do wykrycia w inny sposób.

Analiza Ruchu Big Data

Ten artykuł dotyczy produktu

Analiza Ruchu Big Data

Przejdź do produktu
Kolokacja Serwerów

Ten artykuł dotyczy produktu

Kolokacja Serwerów

Przejdź do produktu
Serwer Dedykowany

Ten artykuł dotyczy produktu

Serwer Dedykowany

Przejdź do produktu
Wirtualne Centrum Danych

Ten artykuł dotyczy produktu

Wirtualne Centrum Danych

Przejdź do produktu

Data publikacji: 20.07.2015

Chcesz dostawać informacje o nowych wpisach?

Chcesz dostawać informacje o nowych wpisach?

Zostaw swój adres e-mail