Wiele organizacji zaczyna zdawać sobie sprawę z faktu, iż aby dotrzymać kroku konkurencji, a nawet wyprzedzić ją w dynamicznie zmieniających się warunkach, należy położyć strategiczny wręcz nacisk na analizę danych. Na przestrzeni ostatnich kilku lat obserwowaliśmy nieustający wzrost ilości informacji i znaczącą zmianę w złożoności zestawów danych. Ma to ogromne przełożenie dla biznesu. Dane pochodzące z portali społecznościowych, urządzeń mobilnych oraz dostępne w chmurze, umożliwiają organizacjom pozyskiwanie wartościowych informacji o klientach, przewidywanie trendów i szybsze wprowadzanie produktów na rynek. Jednakże ten zalew danych umożliwia niespotykany dotąd margines błędu.


 
Organizacje często ślepo wierzą w adekwatność posiadanych danych, bezgranicznie ufając liczbom i polegając na nich przy podejmowaniu decyzji zarówno strategicznych jak i operacyjnych. A co dzieje się gdy dane są niewłaściwe? Nietrafne lub „złe dane” pojawiają się gdy informacje są duplikowane, przestarzałe, nieprecyzyjne lub niekompletne. W rezultacie, większość organizacji będzie posiadała część właśnie takich informacji w swoich zasobach, choćby z uwagi na tzw. błąd ludzki. Często informacje są błędnie dodawane do systemu, np. ktoś z działu HR, wprowadzając informacje zamiast wpisać 38, wpisze 3, co zniekształca ostateczny obraz. Ostatnie badania pokazują, że tylko 38% organizacji korzysta z oprogramowania do sprawdzania poprawności wprowadzanych danych, a aż 23% firm polega z zupełności na odręcznych procesach w tym zakresie.

Niewłaściwe dane mogą jednak mieć bardzo poważne konsekwencje. Średnio, firmy tracą 12% zysków właśnie z tego powodu. Problem nie tkwi jednak tylko w niewłaściwych danych, a w braku świadomości. Do momentu, gdy zostaną one zauważone, cała machina związana z podejmowaniem decyzji, ich następstwami, a co za tym idzie inwestycjami, działa już na tyle prężnie, że trudno ją zatrzymać. Takie sytuacje zdarzają się we wszystkich branżach i mogą nieść naprawdę daleko idące skutki. Wyobraźmy sobie choćby przedsiębiorstwo błędnie szacujące swoje prognozy zysku czy organizacje zdrowotne niewłaściwe oceniające zapotrzebowanie swojego personelu.

Problem w tym, że takie błędy niezwykle ciężko wychwycić. Próby sprawdzania tysięcy wierszy i kolumn, w celu znalezienia pomyłek jest zarówno czasochłonne jak i bezproduktywne. Błędy z łatwością mogą wkraść się zwłaszcza do firm produkujących setki tysięcy informacji. W odkrywaniu rozbieżności i znajdywaniu ich może pomóc wizualizowanie złożonych danych.

Wizualizacja jest często postrzegana jako sposób upiększenia kolorem lub formą, zwykłej tabeli czy liczb. W rzeczywistości jest to znacznie więcej. Prezentacja danych ilościowych ma znaczenie dużo szersze niż tylko względy estetyczne – wiele cech danych ilościowych może zostać zrozumianych i właściwie odebranych, gdy wartości są przedstawione w sposób graficzny. Wizualizacja umożliwia spojrzenie z innej perspektywy na dane, uchwycenie całościowego obrazu i zidentyfikowanie pewnych wzorców oraz różnic. To wszystko oznacza, że użytkownik może wskazać nieścisłości i zależności między złożonymi danymi, a w konsekwencji biznes może lepiej zrozumieć jakość posiadanych danych, w sposób wcześniej niemożliwy.

Stare powiedzenie mówi „nie uwierzę, dopóki nie zobaczę”. W przypadku złych danych „zobaczenie” oznacza raczej uświadomienie sobie, że nieścisłości w danych pojmowanych jako właściwe, zaciemniają obraz, ale też mobilizują do ponownego przyjrzenia się im, dla lepszego zrozumienia prowadzonego biznesu. Bowiem w przypadku wizualizacji danych, zwłaszcza tych błędnych -– diabeł faktycznie tkwi w szczegółach.

Autor: Patrik Lundblad, Visualization Advocate, Qlik

PRZECZYTAJ RÓWNIEŻ:


Back to top