Big Data wspiera decyzje biznesowe: dlaczego twoja firma też powinna korzystać z danych

Dziś Big Data to nowy paradygmat patrzenia na biznes i jego otoczenie, niezbędne narzędzie przy planowaniu nowych produktów lub wprowadzaniu krytycznych zmian. To nic innego jak biznesowy insight. Można – i należy! – w tym momencie zapytać: przecież biznes jest analizowany, mierzony i badany niemal od zawsze. Racja. Jeszcze w czasach przed Big Data otaczały nas tabelki, raporty, a wszystko, co dało się w organizacjach zmierzyć, było mierzone. Zliczano sprzedaż, przychody, wyniki uzyskiwane przez jednostki biznesowe itd. To jednak jest business intelligence, analityka biznesowa, która nie ma nic wspólnego z Big Data. Business intelligence nie potrafi odkryć korelacji pomiędzy danymi i wygenerować w ten sposób insightu. Dostarcza nam prostej informacji, np. o tym, że sprzedaż piwa w I kwartale 2018 r. na terenie np. Poznania wyniosła X.

Big Data i Data Science dostarcza nam odpowiedzi na pytania, jak będzie wyglądała sprzedaż w przyszłym kwartale, uwzględniając aktualne trendy społecznościowe, zbliżające się mistrzostwa świata i długoterminową prognozę pogody. Zaawansowana analiza pozwoli odpowiedzieć na pytanie, czy to dobry moment na wprowadzenie nowej marki lub pomoże odpowiednio dobrać przekaz marketingowy, by współgrał z aktualnymi nastrojami w sieciach społecznościowych.

Ta wiedza nie jest ciekawostką pozyskaną z biznesowej szklanej kuli, ale podstawą do podjęcia czysto biznesowych decyzji dotyczących np. zatowarowania, łańcucha dostaw czy logistyki związanej ze sprostaniem wzrostowi popytu na towar. Tradycyjne business intelligence, które patrzy w przeszłość, nie jest w stanie dostarczyć nam takich informacji.

Porównanie baz danych może być kopalnią złota

Kluczową kwestią dla działania systemów Big Data są dane wejściowe. Bez odpowiednich danych zasilających Big Data nie sposób uzyskać jakościowych danych wyjściowych. Zamiast wartościowego business insight uzyskamy informacyjny szum. W tym momencie należy zadać sobie pytanie – skąd wziąć dane wyjściowe, gdzie one się znajdują? Odpowiedź na to pytanie jest złożona.

Po pierwsze, wartościowe dla działalności operacyjnej dane bywają „zaszyte” nawet w organizacjach, które – pozornie – nie dysponują znaczącymi zbiorami danych.

Posłużmy się realnym przykładem z dużego amerykańskiego miasta, w którym znajdowały się trzy szpitale borykające się z problemem wzrastających kosztów. Analiza zgłoszeń od pacjentów, informacji od policji na temat przestępczości i wypadków oraz uwzględnienie lokalizacji pozwoliła odkryć pewną prawidłowość. Po zestawieniu danych z kosztami szpitali odkryto, że 80% kosztów generowane jest przez 13% mieszkańców. Sama informacja wydaje się oczywista: w końcu zasada Pareta działa prawie wszędzie – to, co było wyjątkowe, to dokładne zlokalizowanie obszarów, w których jest największe zagęszczenie takich osób.

Uzyskanie tej informacji pozwoliło lepiej zorganizować służby ratunkowe, wprowadzić dodatkowe proaktywne działania. A to przyczyniło się do znacznej redukcji kosztów opieki medycznej w całym mieście. Innym nieoczywistym przykładem jest wykorzystanie aplikacji dostarczonej przez amerykańskie miasto Camden w stanie New Jersey w celu poprawy jakości dróg. Użytkownicy uruchamiający na swoich telefonach aplikację zezwalali na rejestrowania położenia i przekazywanie go do instytucji dbających o stan dróg miejskich. Co ciekawe i wyjątkowe w tym przykładzie, to moment, w którym wysyłana była lokalizacja. Aplikacja wykorzystywała czujnik przyspieszeń wbudowany praktycznie we wszystkie współczesne telefony i wysyłała położenie tylko wtedy, gdy telefon zarejestrował gwałtowne drgania, czyli samochód wpadł w dziurę lub wjechał na znaczną nierówność. Reszta to czysta statystyka i obróbka danych – miasto dostało stale aktualizującą się mapę miejsc z uszkodzoną nawierzchnią.

Na scenę wkracza data scientist

Po drugie: analiza procesów biznesowych. Powyższy przykład opisuje „analizę”, w toku której dane o zgłoszeniach nałożono na mapę miasta. Ten proces nie jest jednak oczywisty – na jakimś etapie ktoś musi wpaść na pomysł, by porównać jedne dane z drugimi. W tym momencie na scenę wkracza data scientist, czyli ekspert od analizy danych, którego podstawową kompetencją jest przekładanie wymagań lub problemów biznesowych na problemy analityczne, które można rozwiązać na podstawie posiadanych danych.

Data scientist to konsultant, często osoba wynajęta do konkretnego projektu, który podpowiada takie połączenia zbiorów danych w organizacji, które „włożone” do systemu Big Data wygenerują wartość biznesową. Oczywiście, data scientist sam w sobie nie jest źródłem rozwiązań. W przypadku szpitala to on podpowiedział, by dane o zgłoszeniach porównać z mapą miasta i spróbować zlokalizować „najgorętsze” obszary.

Po trzecie, Big Data, jak sama nazwa wskazuje, to duże zbiory danych. Dla odkrywania zależności trendów potrzebne są odpowiednio bogate zbiory danych. Np. lista transakcji wykonanych w sklepie w ciągu ostatniego kwartału może nie być wystarczająca do wnioskowania. Ale już ta sama lista transakcji z ostatnich dwóch lat wzbogacona o szczegóły zakupu, kod pocztowy, wydaną kwotę, datę i godzinę zakupu z uwzględnieniem dnia tygodnia, zapewne przyniesie zadowalające rezultaty analizy. Informacje o tym, co kupują mieszkańcy określonej dzielnicy miasta i ile wydają na zakupy w jakie dni, są ważną daną wspomagającą podejmowanie decyzji o np. lokalizacji nowego sklepu, planowanych dostawach lub pomagają kierować promocje towarów do konkretnych grup odbiorców.

Powody lub motywacje do wejścia w Big Data najczęściej możemy podzielić na kilka kategorii:

• optymalizacja procesów lub zwiększenie efektywności (przykład szpitala),

• identyfikacja ryzyka (wykrywanie nadużyć, analiza trendów, opinii o produkcie i szybkie reagowanie na incydenty w mediach społecznościowych),

• odkrywanie nowych okazji biznesowych (planowanie promocji, wprowadzanie nowych produktów, wyszukiwanie kluczowych klientów).

Nie oznacza to jednak, że Big Data zarezerwowana jest wyłącznie dla dużych organizacji, korporacji czyli klientów z sektora enterprise. Skorzystanie z usług data scientist jest dostępne dla każdego, a bariera wejścia – zerowa. Nawiązanie relacji może – a nawet powinno – rozpocząć się od kontaktu z podsumowaniem sytuacji wyjściowej i określeniem oczekiwanych rezultatów w stylu „Mam kilka zbiorów danych o firmie, sprzedaż, bazy klientów itd. Chciałbym zoptymalizować działania lub wprowadzić nowe usługi, ale nie wiem, jak je połączyć i przeanalizować, proszę o pomoc”. Po prostu – aby skorzystać z Big Data, nie trzeba się na Big Data znać.

Nie zawsze musimy wiedzieć, czego szukamy i nie zawsze znajdujemy to, czego szukaliśmy

Mechanizmów oraz metod analizy jest wiele, a każdego dnia powstają kolejne. Nowy i bardzo szybko rozwijający się trend w analizie danych to nauczanie maszynowe (machine learning) i sztuczna inteligencja (AI/deep learning). W dużym uproszczeniu polega to na tym, że pozwalamy maszynie uczyć się na naszych danych, wyciągać samodzielnie wnioski i budować „inteligencję”, która po nauczeniu może wspierać określone procesy biznesowe, np. analizować nastroje i intencje użytkowników komentujących na naszych stronach internetowych, przewidywać ceny mieszkań na podstawie danych z wcześniejszych transakcji lub sugerować dodatkowe produkty, które możemy zaoferować w promocji. Możliwości zastosowań tego typu mechanizmów jest praktycznie nieskończenie wiele, wszystkie jednak opierają się na Big Data, czyli naszych danych.

Kompetentny partner to podstawa

Big Data nie jest wirtualnym konceptem i ma namacalny aspekt fizyczny. Wymaga gromadzenia dużych ilości danych i robienia tego na zapas, bo nie wiadomo, które z nich mogą okazać się użyteczne. W przypadku dużych zbiorów danych potrzebna jest odpowiednio wydajna infrastruktura IT, w której dane będą łatwo dostępne, a cały proces efektywny.

Dlatego w procesie przygotowania do „skoku” w Big Data z pomocą przychodzą partnerzy IT, którzy potrafią podejść do procesu holistycznie. Całościowe spojrzenie na potrzeby klienta jest konieczne, by zaproponować rozwiązania adekwatne do zastanej sytuacji. Nie jest bowiem wcale powiedziane, że organizacja, która decyduje się na Big Data, powinna taki system kupić czy utrzymywać u siebie w modelu on premise. Kompetentny i elastyczny partner, taki jak Dell EMC, potrafi zidentyfikować potrzebę klienta, pomóc w analizie danych i zaproponować rozwiązanie, które przyniesie adekwatny zwrot z inwestycji. Istotne jest, by partner IT posiadał odpowiednio szerokie portfolio zróżnicowanych usług i rozwiązań obejmujących rozwiązania elastyczne, skalowalne czy zbudowane w oparciu o chmurę (tzw. Big Data on demand), o architekturę hiperkonwergentną (którą przybliżymy w kolejnych artykułach). Tylko wtedy myślenie partnera i jego rekomendacje nie będą ograniczone przez usługi czy produkty, które chce on sprzedać.

Wartość Big Data zawiera się w czterech kluczowych komponentach: w kompetentnych ludziach, algorytmach będących podstawą analizy, w jakościowych pomysłach na przetwarzanie oraz, last but not least, decyzjach biznesowych podejmowanych na podstawie dostępnych danych.

Big data, czyli jak zrobić użytek z biofarmaceutycznych danych - Artykuły - Biotechnologia.pl

Potężne ilości różnorodnych danych określa się dziś pojęciem big data. Termin ten dotyczy zbiorów zróżnicowanych, często zmieniających się i aktualizowanych informacji źródłowych, cechujących się potencjalną wartością dla biznesu. W przypadku przemysłu farmaceutycznego, big data może okazać się cennym środkiem zaradczym na pojawiające się w ostatnich latach trudności natury ekonomicznej. Specjaliści podkreślają, że jest to nieocenione źródło w poszukiwaniu nowych skutecznych terapii, jednak warunkiem jest umiejętność odpowiedniego wykorzystania.

Dane, jakie udaje się gromadzić, przedstawiają w rzeczywistości taką wartość, jaką stanowi odpowiedź na dobrze postawiony problem. Pomimo wielu zaawansowanych technik analizy danych, kluczową rolę odgrywa na tym etapie czynnik ludzki. Badacz musi posiadać umiejętność odpowiedniego postawienia pytania w odniesieniu do danych, w przeciwnym wypadku stają się one właściwie bezużyteczne. W tym kontekście często przywoływany jest sukces takich firm jak na przykład Google, gdzie mamy do czynienia z fenomenalnym wykorzystaniem (wręcz spieniężeniem) ogromu informacji wynikających z funkcjonowania sieci internetowej. Oczywiście specyfika danych w branży biofarmaceutycznej jest zgoła odmienna i bardziej skomplikowana, jednak analogicznie mogą się one okazać bezcenne przy odpowiednim ich wykorzystaniu.

Duże ilości danych mogą sprzyjać powstawaniu licznych, często błędnych hipotez, przez co jeszcze ważniejsze staje się umiejętne postawienie problemu, jaki może rozwiązać ich analiza. Nieodpowiednio wyciągnięte wnioski z potoku informacji wynikających na przykład z wyników badań przedklinicznych i wczesnych faz badań klinicznych, stosunkowo często stają się przyczyną fałszywych hipotez. Te ostatnie skutkują niepowodzeniami w dalszych i zarazem droższych etapach badań. Z drugiej jednak strony, przy racjonalnym podejściu i odpowiedniej analizie, bogactwo zgromadzonych danych stwarza wiele możliwości. Przykładem niech będą wyniki badań genetycznych pacjentów, które mogą zrewolucjonizować współczesna medycynę, dając podstawy do urzeczywistnienia wizji w pełni spersonalizowanej medycyny.

W przemyśle farmaceutycznym i biofarmaceutycznym dane odgrywają kluczową rolę także poza obszarem badawczo-rozwojowym. Komercjalizacja terapii nigdy nie jest równoznaczna z zakończeniem gromadzenia danych związanych z jej efektami czy skutkami ubocznymi. Pozwala to na dalszy rozwój bądź nowe zastosowania konkretnych leków, czego spektakularne przykłady przywoływane są od lat.

Należy także pamiętać, że wiele danych o potencjalne biofarmaceutycznym tkwi ciągle w odręcznych zapiskach naukowców i badaczy z całego świata. Tym nie mniej big data jest niewątpliwym faktem w tej branży. Wyzwaniem staje się współcześnie odpowiednia archiwizacja, przepływ informacji oraz umiejętne ich wykorzystanie. Nadszedł czas, by nagromadzone dane zaczęły efektywnie pracować, przynosząc wymierne korzyści w światowej biofarmacji. Szacunki wynikające z rosnącej dostępności zaawansowanych narzędzi biostatystycznych, służących do wydobycia cennej wiedzy z nieuporządkowanych danych, pokazują, że jest to wyzwanie zaledwie na najbliższe lata.

Przeczytaj również:

Android w laboratorium

Ewa Sankowska

portal Biotechnologia.pl

w oparciu o:

D. Garde, Big Data has arrived in biotech. Now what?, published online 10 Jan 2013,

372674.jpg

8 zastosowań Big Data, o których nie miałeś pojęcia

Big Data jest już wszędzie. Nawet tam, gdzie zupełnie nie spodziewalibyśmy się jej spotkać: w lodówce, w piwie, w lesie i w grach na komórki. Korzystają z niej Lady Gaga i Barack Obama. To broń w walce z przestępczością i komarami. Oto 8 zaskakujących przykładów zastosowania tej technologii.

1. Big Data z lodówki

– Współczesne urządzenia coraz częściej pracują w trybie online, wskutek czego w „Internecie Rzeczy” (The Internet of Things) zaczyna robić się tłoczno. Obok smartfonów, smartwachów i smart TV zaczynają pojawiać się smart-kuchenki, smart-piekarniki, smart-lodówki itd. Według szacunków Cisco do 2020 roku Internet Rzeczy współtworzyć będzie blisko 50 miliardów smart-przedmiotów codziennego użytku. Gartner jest o wiele bardziej ostrożny i redukuje tę liczbę o połowę, mówiąc o 26 mld urządzeń. Co piąte z nich ma dostarczać swojemu producentowi cennej wiedzy o zachowaniach i preferencjach konsumentów, czyli generować Big Data. Warto pamiętać o tym, że paliwem dla Internetu Rzeczy są właśnie dane – tłumaczy Piotr Prajsnar, CEO Cloud Technologies, największej platformy Big Data w tej części Europy.

Już teraz z Big Data korzystają lodówki i zamrażarki, z czego skrzętnie skorzystało ostatnio choćby Tesco. Brytyjska sieć supermarketów przeprowadziła trzyletni projekt analizy danych wysyłanych właśnie przez te urządzenia, rozmieszczone w 120 sklepach w Irlandii. Dane dotyczyły głównie temperatury chłodzenia i czasu pracy urządzeń. Dzięki nim znaleziono sposób na zredukowanie kosztów. Okazało się, że wystarczy skorygować temperaturę chłodzenia o 2 stopnie (z -23 na -21), aby uzyskać oszczędności sięgające blisko 17 mln EUR w skali roku – oczywiście bez obniżenia skuteczności chłodzenia produktów. Teraz Tesco chce wykorzystać Big Data z innych urządzeń do znalezienia sposobu na redukcję emisji dwutlenku węgla w swoich placówkach.

2. Beer Data

Nikt wprawdzie nie upędził piwa, które zamiast chmielowych szyszek zawierałoby ekstrakt z Big Data, ale dla przemysłu browarniczego analiza wielkich zbiorów danych to wcale nie przelewki. Big Data dla wielu pubów okazuje się dziś już równie istotna, co podstawki pod kufle. Intratny biznes na złocistym trunku zrobił ostatnio izraelski startup WeissBeerger, który jako pierwszy na świecie opracował i wdrożył w barach, pubach i restauracjach system monitorujący na żywo: ilość, gatunek i markę spożywanego piwa, mierzone w konkretnych przedziałach czasowych. Zlicza także przychody oraz pozostałe na zapleczu beczki (kegi) piwa. Dzięki temu właściciele pubów wiedzą, jakie marki i o jakich godzinach „piją się najlepiej”. System dostarcza również właścicielom gotowych instrukcji SMS-owych, podpowiadających jakie piwo, w jakich ilościach i w jakie dni powinni zamawiać. Sugeruje także godziny promocji. Ci, którzy zgodzili się na bigdejtyzację piwa (albo beeryzację Big Data, jak kto woli) już spijają piankę sukcesu. Yoav Avlon, właściciel baru Norma Jean w Tel Avivie chwali się wzrostem zysków ze sprzedaży sięgającym od 50% do nawet 80% w skali dnia. Po „Beer Data” sięga ostatnio również Heineken, współpracując z siecią Walmart w ramach programu Shopperception. Piwny potentat chce się dowiedzieć, w którym miejscu w sklepie powinny stać jego puszki, butelki oraz sześciopaki, żeby klienci sięgali po nie chętniej. Testuje zatem różne opcje ustawień swoich produktów: rodzaje półek, niezależne stoiska promocyjne, piwa w lodówkach, różny dobór produktów otaczających, itp.), posiłkując się danymi zebranymi i przetworzonymi właśnie przez Shopperception. System, wykorzystując sensory 3D, podgląda zachowania konsumentów, a nawet wyświetla im promocyjne ceny, jeżeli dłużej zastanawiają się nad kupnem piwa.

3. Im dalej w las – tym więcej Big Data

Global Forest Watch (GFW) używa danych do monitorowania zmian klimatu związanych z nielegalną wycinką drzew, w celu zapobiegania deforestacji. Skala zjawiska jest poważna. Jak wynika z informacji zgromadzonych przez Google oraz University of Maryland w latach 2000-2012 wykarczowano 230 milionów hektarów drzew. Sytuacja jest szczególnie poważna w dolinie Amazonki. Z obliczeń stowarzyszenia Polska Zielona Sieć tylko w ciągu minuty świat traci lasy o powierzchni 36 boisk do piłki nożnej.

– GFW postanowiło wykorzystać Big Data do wysłania alarmującego sygnału o kondycji naszej planety. Korzysta z tysięcy zdjęć satelitarnych i na bieżąco dostarcza danych rządom, organizacjom z sektora NGO oraz firmom, które stawiają sobie za cel informowanie o zagrożeniach ekologicznych. Wszystko po to, by móc kontrolować stan zalesienia Ziemi – wyjaśnia Piotr Prajsnar.

Możliwości płynące z analizy Big Data dla środowiska zachwyciły doktora Andrew Steera z World Resource Institute, który powiedział: „Od tego momentu źli chłopcy nie będą mogli się ukryć, a dobrzy zyskają uznanie za ich gospodarność”. To nie wszystko. Big Data dostarcza również informacji służbom takim jak np. straż pożarna, informując je o przypadkach zaprószenia ognia w pobliskich lasach, dzięki czemu mogą one znacznie wcześniej zareagować, a przez to opanować sytuację. Analityka Big Data może jednak służyć nie tylko lasom: już teraz mówi się o wykorzystaniu danych do monitorowania ocieplenia klimatu, stanu pokrywy lodowej a także tempa rozrostu dziury ozonowej. Big Data z lasu wybiega w kosmos.