Ujarzmić dane – ale po co ich aż tyle
Katgoria: BUSINESS INTELLIGENCE / Utworzono: 15 grudzień 2011
Im więcej zasobów organizacja przechowuje w swoich zasobach, tym większe problemy napotyka. Podstawowym problemem, który dotyczy typowych serwerów plików, są ograniczenia związane z możliwościami systemu plików stosowanego w danym serwerze. [...] Oprócz wymagań związanych z szybkością przetwarzania strumienia informacji przedsiębiorstwa potrzebują narzędzi, które umożliwią analizę bardzo dużych zbiorów danych. Potrzeby biznesowe związane z analizowaniem różnych wariantów wymagają szybkiej odpowiedzi systemu. Gdy ilość zgromadzonych danych liczy się w terabajtach, tradycyjny model hurtowni korzystający z wielowymiarowych modeli OLAP działa zbyt wolno, a niekiedy w ogóle nie nadaje się do analizy podobnej wielkości danych. (za Ujarzmić firmowe dane – Computerworld.pl).Analiza danych i wyciąganie wniosków z zasady jest wnioskowaniem indukcyjnym, jest to wyciąganie wniosków na bazie posiadanych informacji, jednak problem polega na tym, że bazujemy na wiedzy już posiadanej. Innymi słowy metodami indukcyjnymi, jeżeli można próbować dowodzić rzeczy poznanych, tak nie odkryjemy rzeczy nowych… po drugie:
Głównym problemem filozoficznym związanym z rozumowaniami indukcyjnymi jest to, czy stanowią one rozumowania uzasadniające: skoro konkluzja wnioskowania indukcyjnego nie jest w pełni uzasadniona przez jej przesłanki, pojawia się problem, w jaki sposób, w jakim stopniu i czy w ogóle wnioskowania indukcyjne prowadzą do prawdziwych wniosków. Ci, którzy uznają wnioskowania indukcyjne za wnioskowania uzasadniające (zwolennicy indukcjonizmu) tłumaczą zazwyczaj stopień uzasadnienia konkluzji wnioskowania indukcyjnego za pomocą pojęcia prawdopodobieństwa logicznego. Krytyka indukcjonizmu dokonana przez dedukcjonizm (antyindukcjonizm) opiera się przede wszystkim na fakcie, że nie skonstruowano dotychczas zadowalającej odpowiedzi na pytanie, jak mierzyć to prawdopodobieństwo. (za Rozumowanie indukcyjne – Wikipedia, wolna encyklopedia).W opozycji do tej metody jest
Hipotetyzm – sposób uzasadniania twierdzeń w naukach empirycznych. Z hipotez wyprowadza się ich konsekwencje logiczne. Mając pewien zbiór konsekwencji bada się, czy nie ma w nim tautologii (ew. sprzeczności). Jeżeli twierdzenie wyprowadzone w ten sposób wnosi coś nowego do teorii, poddaje się je testowi empirycznemu (twierdzenie traktuje się jako przewidujące fakty doświadczalne). (za Hipotetyzm – Wikipedia, wolna encyklopedia).Ma on swoje źródło w:
Falsyfikacjonizm jest to zbiór procedur metodologicznych, które, w opinii autorów tego stanowiska, chcący się przyczynić do rozwoju wiedzy naukowej badacz musi stosować. Osią tego ujęcia jest przekonanie, że dla teorii naukowych nie należy szukać potwierdzenia (weryfikacji), lecz kontrprzypadków, mogących badanej teorii zaprzeczyć. Należy zatem dążyć do sfalsyfikowania teorii (wykazania jej niezgodności z doświadczeniem), a jeśli próba się nie powiedzie uznać, tymczasowo, teorię, aż do następnej próby falsyfikacji, która dla teorii skończyć się może obaleniem. (za Krytyczny racjonalizm – Wikipedia, wolna encyklopedia).Tyle wprowadzenia. I co z tego wynika? Że odkrywanie „nowych rzeczy” nie jest w stanie się dokonać na bazie analizy historii, bo skoro szukamy rzeczy nowych to historia ich nie zawiera. Falsyfikacjonim, nazywany często „naukowym badaniem”, polega na stawianiu hipotez i podejmowaniu prób ich sfalsyfikowania (wykazania ich nieprawdziwości). Dobra hipoteza – teoria – to hipoteza w postaci modelu zjawiska, które opisuje (hipoteza mówi: tak właśnie jest) oraz przykład (test) zdarzenia, które – gdyby zaistniało – obali tę hipotezę (warunek falsyfikacji).
Czyli hipotezy nie dowodzimy, musimy ją obalić by wykazać jej fałszywość ale autor hipotezy musi wskazać co potencjalnie obala jego hipotezę (twórcą tej teorii w filozofii nauki jest Karl Popper). Innymi słowy: hipoteza może mi przyjść do głowy nawet podczas wizji religijnej, nie ma to znaczenia. Ważne jest, dla jej prawdziwości, by ją opisać i wskazać warunek falsyfikacji. Hipoteza taka, jeżeli jest potwierdzana przez obserwowane zjawiska, jest prawdziwa tak długo jak długo nie zostanie sfalsyfikowana (wskazane zostanie zjawisko wyłamujące się modelowi). Najbardziej znanym i znamiennym przykładem tego podejścia jest słynne twierdzenie Fermata.
A teraz po ludzku
Modelowanie, jako narzędzie analizy, to nic innego jak właśnie tworzenie hipotez. Np. tworzę model procesów biznesowych (z reguły na bazie małej partii dokumentów rzeczywistych). Dowodem falsyfikującym ten model jest wskazanie takiego rzeczywistego dokumentu w analizowanej firmie, który nie jest obsługiwany stworzonym modelem procesu. Wskazanie takiego dokumentu lub zdarzenia obala hipotezę (model) i wymaga modyfikacji modelu procesu lub uznanie, że model jest zły (i stworzenie nowego :) ). To samo dotyczy każdego innego modelowania.
Tak więc modele rynkowe zachowań klientów, prognozy i wiele innych można budować analizując terabajty danych opisujących historię. Problem w tym, że: nie znamy prawdopodobieństwa jakie rządzi tymi zdarzeniami, tak więc nie odkryjemy tak niczego poza tym co się wydarzyło i nadal nie wiemy z jakim prawdopodobieństwem wykryte zdarzenie z historii się powtórzy (wierzymy, że się powtórzy) w (prognozowanej) przyszłości (kto nie wierzy niech sprawdzi skuteczność takich prognoz (analiza techniczna) na giełdach. Jest praktycznie zerowa, co nie przeszkadza w jej powszechnym stosowaniu.
Moim zdaniem hurtownie danych i wszelkiego typu systemy BI mogą być skuteczne jako wykrywanie „czegoś” w historii, na pewno sprawdzają się jako złożone systemy raportowania, ale nie sądzę by jakakolwiek hurtownia danych plus system BI odkryła cokolwiek nowego lub skutecznie prognozowała.
Firmy parające się statystyką, polegają na tak zwanej próbie reprezentatywnej. Analizowana jest „dobrana” mała partia danych, a nie wszystkie, wiec nie wiem skąd ten pęd do analizy wszystkich posiadanych danych, których stale przybywa.
Budowanie modeli na bazie małych partii danych jest po pierwsze wiarygodniejsze (paradoksalnie) niż proste wnioskowanie statystyczne, po drugie daje szanse odkrycia czegoś nowego. W czym problem? To drugie jest nie możliwe z pomocą deterministycznej maszyny jaką jest komputer. To wymaga człowieka, ten jednak nie daje się produkować masowo… , korporacja na nim nie zarobi.
Hm… czy przypadkiem promowanie systemów hurtowni danych, BI, pracy z terabajtami danych itp.. to nie tworzenie sobie rynku przez dostawców tych technologii?
Warto więc za każdym razem, zanim zainwestujemy w rozwiązania operujące na terabajtach danych, przemyśleć co chcemy osiągnąć. W zasadzie nie ma uzasadnienia dla trzymania wszystkich danych, ważne jest określenie jaki problem chcemy rozwiązać. Jeżeli są to problemy związane z analizą danych historycznych, badania statystyczne mogą być skuteczne, do tego poddają się automatyzacji. Jeżeli jednak problem tkwi w planowaniu zmian, prognozowaniu, odkrywaniu, polecam raczej człowieka i budowanie hipotez.
A inne analizy?
Opisany powyżej mechanizm dotyczy każdego rodzaju analizy, której celem jest zrozumienie „jak coś działa”. Analiza ogromnych ilości zebranych danych, których źródłem są tylko obserwacje i fakty to paradoksalnie najgorsza metoda badawcza. Jako system raportowania (przetwarzanie danych) sprawdza się bardzo dobrze ale tylko do tego.
Wystarczy (nomen omen) spojrzeć wstecz historii. Opis wszechświata bazujący wyłącznie na obserwacji to znany z czasów przedkopernikańskich układ geocentryczny. Jest efektem zapisów wyników obserwacji. W zasadzie rosnąca liczba tych obserwacji potwierdzała jedynie znany z tamtych czasów fałszywy model (patrz po lewej). Jest zawiły, niedający sie opisać prostymi zależnościami. Odkrycie nowej planety wymagałoby kolejnych setek obserwacji by opisać jej tor na tym rysunku.
Sytuacja zmienia się diametralnie po tym, jak Kopernik „poszedł w stronę” myślenia hipotezami. Nie zapisywał i nie porządkował pieczołowicie kolejnych bzdurnych pomiarów a szukał wytłumaczenia otrzymanych już (których zresztą mogło by być znacznie mniej). Jak wiemy Kopernik znalazł odpowiedź napytanie: jak wygląda wszechświat (teraz wiemy, że nasz to tylko jeden z wielu układów we wszechświecie). Zbudował prosty i łatwy do matematycznego (w porównaniu z tym po lewej) opisu model heliocentryczny i za jednym zamachem nie tylko wyjaśnił dotychczasowe obserwacje ale przewidział wszystkie następne.
Podobną metodę można zastosować do modelowania zjawisk gospodarczych, procesów biznesowych czy oprogramowania. Analiza przedsiębiorstwa nie musi polegać na dziesiątkach wywiadów, porządkowaniu ich treści i setkach diagramów, z których nic nie wynika. Analiza może polegać na analizie partii dokumentów, zbudowaniu modelu procesu i sprawdzeniu czy wyjaśnia inne zdarzenia w firmie. Taka analiza jest mniej kosztowna, produkuje znacznie mniej papieru, jest pozbawiona nieścisłości i nadmiaru nieprzydatnych danych. Niestety ile razy mówię o tym np. na konferencjach natychmiast większość firm doradczych wysłała by mnie na stos…
Ktoś mógłby zapytać: czy ma sens do każdego projektu angażować „naukowca”? Do każdego zapewne nie ale skoro wiemy z badań, że w projektach związanych z zarządzaniem lub dostarczaniem oprogramowania ponad 60% kosztów idzie w błoto z powodu złych analiz i projektów to sami sobie Państwo odpowiedzcie na to pytanie… bo praktyka pokazuje, że to w zasadzie zawsze jest tańsze :) , niestety widać to dopiero po zakończeniu projektu… a co z analizą danych historycznych? Podobno, jak twierdzi Hegel, historia uczy ludzi, że historia niczego ludzi nie nauczyła…
Źródło: www.it-consulting.pl
Autor: Jarosław Żeliński
Najnowsze wiadomości
Customer-specific AI: dlaczego w 2026 roku to ona przesądza o realnym wpływie AI na biznes
W 2026 roku sztuczna inteligencja przestaje być ciekawostką technologiczną, a zaczyna być rozliczana z realnego wpływu na biznes. Organizacje oczekują dziś decyzji, którym można zaufać, procesów działających przewidywalnie oraz doświadczeń klientów, które są spójne w skali. W tym kontekście coraz większe znaczenie zyskuje customer-specific AI - podejście, w którym inteligencja jest osadzona w danych, procesach i regułach konkretnej firmy, a nie oparta na generycznych, uśrednionych modelach.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
SkyAlyne stawia na IFS dla utrzymania floty RCAF
SkyAlyne, główny wykonawca programu Future Aircrew Training (FAcT), wybrał IFS Cloud for Aviation Maintenance jako cyfrową platformę do obsługi technicznej lotnictwa i zarządzania majątkiem. Wdrożenie ma zapewnić wgląd w czasie rzeczywistym w utrzymanie floty, zasoby i zgodność, ograniczyć przestoje oraz zwiększyć dostępność samolotów szkoleniowych RCAF w skali całego kraju. To ważny krok w modernizacji kanadyjskiego systemu szkolenia załóg lotniczych.
Wykorzystanie AI w firmach rośnie, ale wolniej, niż oczekiwano. Towarzyszy temu sporo rozczarowań
Wykorzystanie sztucznej inteligencji w firmach rośnie, ale tempo realnych wdrożeń pozostaje znacznie wolniejsze od wcześniejszych oczekiwań rynku. Dane pokazują, że z rozwiązań AI korzysta dziś wciąż niewiele przedsiębiorstw, a menedżerowie coraz częściej wskazują na bariery regulacyjne, koszty oraz brak powtarzalnych efektów biznesowych. W praktyce technologia jest testowana głównie w wybranych obszarach, a kluczowe decyzje nadal pozostają po stronie człowieka. Również w firmach, które wdrożyły AI, nierzadko towarzyszą temu rozczarowania.
Europejski przemysł cyfryzuje się zbyt wolno – ERP, chmura i AI stają się koniecznością
Europejski przemysł średniej wielkości wie, że cyfryzacja jest koniecznością, ale wciąż nie nadąża za tempem zmian. Ponad 60% firm ocenia swoje postępy w transformacji cyfrowej jako zbyt wolne, mimo rosnącej presji konkurencyjnej, regulacyjnej i kosztowej. Raport Forterro pokazuje wyraźną lukę między świadomością potrzeby inwestycji w chmurę, ERP i AI a realną zdolnością do ich wdrożenia – ograniczaną przez braki kompetencyjne, budżety i gotowość organizacyjną.
Najnowsze artykuły
5 pułapek zarządzania zmianą, które mogą wykoleić transformację cyfrową i wdrożenie ERP
Dlaczego jedne wdrożenia ERP dowożą korzyści, a inne kończą się frustracją, obejściami w Excelu i spadkiem zaufania do systemu? Najczęściej decyduje nie technologia, lecz to, jak organizacja prowadzi zmianę: czy liderzy biorą odpowiedzialność za decyzje czy tempo jest dopasowane do zdolności absorpcji oraz czy ludzie dostają klarowność ról i realne kompetencje. Do tego dochodzi pytanie: co po go-live - stabilizacja czy chaos w firmie? Poniżej znajdziesz 5 pułapek, które najczęściej wykolejają transformację i praktyczne sposoby, jak im zapobiec.
SAP vs Oracle vs Microsoft: jak naprawdę wygląda chmura i sztuczna inteligencja w ERP
Wybór systemu ERP w erze chmury i sztucznej inteligencji to decyzja, która determinuje sposób działania organizacji na lata — a często także jej zdolność do skalowania, adaptacji i realnej transformacji cyfrowej. SAP, Oracle i Microsoft oferują dziś rozwiązania, które na pierwszy rzut oka wyglądają podobnie, lecz w praktyce reprezentują zupełnie odmienne podejścia do chmury, AI i zarządzania zmianą. Ten artykuł pokazuje, gdzie kończą się deklaracje, a zaczynają realne konsekwencje biznesowe wyboru ERP.
Transformacja cyfrowa z perspektywy CFO: 5 rzeczy, które przesądzają o sukcesie (albo o kosztownej porażce)
Transformacja cyfrowa w finansach często zaczyna się od pytania o ERP, ale w praktyce rzadko sprowadza się wyłącznie do wyboru systemu. Dla CFO kluczowe jest nie tylko „czy robimy pełną wymianę ERP”, lecz także jak policzyć ryzyko operacyjne po uruchomieniu, ocenić wpływ modelu chmurowego na koszty OPEX oraz utrzymać audytowalność i kontrolę wewnętrzną w nowym modelu działania firmy.
Agentic AI rewolucjonizuje HR i doświadczenia pracowników
Agentic AI zmienia HR: zamiast odpowiadać na pytania, samodzielnie realizuje zadania, koordynuje procesy i podejmuje decyzje zgodnie z polityką firmy. To przełom porównywalny z transformacją CRM – teraz dotyczy doświadczenia pracownika. Zyskują HR managerowie, CIO i CEO: mniej operacji, więcej strategii. W artykule wyjaśniamy, jak ta technologia redefiniuje rolę HR i daje organizacjom przewagę, której nie da się łatwo nadrobić.
Composable ERP: Przewodnik po nowoczesnej architekturze biznesowej
Czy Twój system ERP nadąża za tempem zmian rynkowych, czy stał się cyfrową kotwicą hamującą rozwój? W dobie nieciągłości biznesowej tradycyjne monolity ustępują miejsca elastycznej architekturze Composable ERP. To rewolucyjne podejście pozwala budować środowisko IT z niezależnych modułów (PBC) niczym z klocków, zapewniając zwinność nieosiągalną dla systemów z przeszłości. W tym raporcie odkryjesz, jak uniknąć pułapki długu technologicznego, poznasz strategie liderów rynku (od SAP po MACH Alliance) i wyciągniesz lekcje z kosztownych błędów gigantów takich jak Ulta Beauty. To Twój strategiczny przewodnik po transformacji z cyfrowego "betonu" w adaptacyjną "plastelinę".
Oferty Pracy
-
Młodszy konsultant programista Microsoft Dynamics 365 Business Central
-
Konsultant programista Microsoft Dynamics 365 Business Central
-
Konsultant Microsoft Dynamics 365
-
Konsultant Wdrożeniowy Symfonia – księgowość
-
Microsoft Fabric Engineer (MFE)
-
Data/Business Analyst (PBI/Fabric)
-
CRM consultant
-
Starszy architekt systemów rozproszonych
-
Inżynier Zastosowań AI
Przeczytaj Również
Jak przyspieszyć transformację energetyczną i dekarbonizację dzięki inteligentnej integracji danych w chmurze?
Odpowiedzią jest Snowflake Energy Solutions – nowa oferta łącząca ponad 30 rozwiązań partnerskich w… / Czytaj więcej
Jak skutecznie wdrożyć Power BI w organizacji?
Wdrożenie narzędzi analitycznych w firmie to nie tylko kwestia technologii, ale także zmiany podejś… / Czytaj więcej
Czy systemy Business Intelligence nadają się do małych i średnich firm?
W świecie biznesu coraz więcej mówi się o danych. Firmy gromadzą je w ogromnych ilościach – od arku… / Czytaj więcej
Ukryte koszty chaosu – polskie firmy tracą miliony, bo nie potrafią korzystać z własnych danych
Aż 58% firm podejmuje kluczowe decyzje biznesowe w oparciu o niedokładne lub niespójne dane – wynik… / Czytaj więcej
Jak Business Intelligence rewolucjonizuje zarządzanie sieciami dealerskimi – rozwiązania od One Support
W branży motoryzacyjnej zmiany zachodzą szybciej niż kiedykolwiek. Dynamiczne wahania cen, rosnąca… / Czytaj więcej
Jak system BI One rewolucjonizuje podejmowanie decyzji w firmach: realne efekty wdrożeń
Współczesne firmy — niezależnie od branży — operują na setkach, jeśli nie tysiącach danych dziennie… / Czytaj więcej
Narzędzia BI dla systemów ERP: Jak wybrać odpowiednie rozwiązanie?
W ostatnim czasie dane stały się jednym z najważniejszych aktywów biznesowych. Sam system ERP pozwa… / Czytaj więcej


