Z tego artykułu dowiesz się:
- Jakie są nieefektywne strategie zarządzania danymi.
- Jak tworzyć produkty analityczne.
- Od czego zacząć zmiany.
Przedsiębiorstwa na wielką skalę inwestują obecnie w rozwój technologi informatycznych umożliwiających zbieranie, gromadzenie i wykorzystanie danych. Według ostatniego raportu „Big Data and AI Executive survey 2021” przeprowadzonego przez NewVantage Partners tylko 41% z przedsiębiorstw inwestujących w nowe technologie informatyczne jest w stanie aktywnie wykorzystać dane do budowania przewagi konkurencyjnej. To oznacza, że całe 59% potencjału inwestycji jest marnowanych lub nie w pełni wykorzystywanych. Te wyniki wcale nie szokują firm konsultingowych, które od lat pomagają klientom w transformacji cyfrowej. Eksperci powtarzają jak mantrę, że „dane są nowym paliwem napędzającym gospodarkę” i każdy lider patrzący w przyszłość nie ma już wyboru pomiędzy „być, albo nie być” organizacją „data-driven”.
Jednak organizacja data-driven to nie sama implementacja najnowszej technologii i eony danych unoszących się w chmurze dostępnych na wyciągnięcie ręki, gdzie każdy z użytkowników jak rybak zarzuci wędkę i będzie łowił swoje życiowe sztuki. Aby osiągnąć sukces w budowaniu i utrzymaniu organizacji, która swój wzrost będzie potrafiła budować w oparciu o dane trzeba głównie stworzyć odpowiednie warunki dla nowicjuszy jak i zapalonych miłośników rybołóstwa.
Obecnie dominują dwa podejścia do zarządzania danymi i obydwa są nieefektywne i nie spełniają potrzeb decydentów, którzy zamiast czerpać wiedzę z danych, muszą mierzyć się z wyzwaniami dostępu do wartościowych analiz. Bardzo świadomie używam tutaj słowa ANALIZA. Same dane są może wartościowym zasobem dla organizacji, jednak bez poprawnej, dogłębnej ich analizy nie dodają wartości biznesowi.
Podejście oddolne
Podejście oddolne jest pierwszym z dwóch podejść, o których wspomniałam powyżej. Jego szczególną charakterystyką jest tworzenie źródeł danych w odrębnych jednostkach organizacji bez wspólnej strategii ich zarządzania. Skutkiem takiej samowoli są przepalone godziny i pieniądze w budowanie nieefektywnych rozwiązań, często obarczonych błędami w projektowaniu i długiem technologicznym. Ponadto takie rozwiązania budowane w silosach są trudne do utrzymania z powodu braku infrastruktury i odpowiednich kompetencji. Niestety, co często obserwuje w mojej pracy, dostarczane dane są słabej jakości, a analizy na nich wykonywane mogą prowadzić do błędnych wniosków, co ma bezpośrednie negatywne przełożenie na podejmowane decyzje. Co gorsze, to podejście tworzy przestrzeń do subiektywnego wykorzystywania danych. Każda z jednostek opierając się, na według ich najlepszej wiedzy, o te same dane, przedstawia ich inne agregacje i w konsekwencji prezentuje inne wyniki. W ogólnym rozliczeniu, wysokopoziomowo, może to doprowadzić do braku zaufania pomiędzy partnerami biznesowymi jak i w zasadność używanych danych.
Podejście scentralizowane
Drugim, najczęstszym trendem jest tworzenie osobnej, scentralizowanej jednostki w organizacji, która ma na celu zapewniać odpowiednią jakość i dostępność danych dla pozostałych jednostek biznesowych. To podejście w porównaniu z poprzednim na pewno ukróca wszystkie dyskusje dotyczące zaufania do źródła danych, gdyż tworzy tak zwane single source of truth. Jednak nie jest też rozwiązaniem doskonałym. Aby dobrze spełniało swoją funkcję w organizacji, powinno być rozbudowaną, dobrze dofinansowaną komórką, która wspiera pozostałe jednostki szybko i ze zrozumieniem specyficznych potrzeb danego biznesu. Niestety w większości takie komórki są mocno techniczne z nastawieniem na dostarczanie danych, a nie na dostarczanie wartości poprzez dane.
Jakie podejście jest właściwe?
Zawsze uważam, że warto podglądać i uczyć się od najlepszych. Podejście, które z powodzeniem stosuje od paru lat, jest podejściem wprost zaczerpniętym z projektowania produktów.
Dwa typowe podejścia opisane powyżej są rozbieżne. W podejściu oddolnym brakuje jakości danych, ale za to możemy się spodziewać zrozumienia potrzeb biznesowych, jako że osoby odpowiedzialne za dostarczanie danych są bliżej biznesu. W centralizacji może jakość i efektywność procesów związanych z zarządzaniem danych jest wysoka, jednak możemy spodziewać się problemów związanych z wykorzystaniem danych w odpowiedniej czasoprzestrzeni z racji na dość biurokratyczny charakter podejścia. I tutaj podejście produktowe może być prawdziwym „game changer’em” windujący analitykę w organizacji na zupełnie inny poziom.
W mojej opinii nie jestem odosobniona. Podobne wnioski można znaleźć w jednej z niedawnych publikacji lidera branży konsultingowej McKinsley, który zwraca uwagę, że przy podejściu produktowym można zaoszczędzić nawet do 30 % całościowych kosztów zarządzania danymi włączając w to technologię, rozwój i utrzymanie[1]. Sercem podejścia produktowego jest spojrzenie na dane z punktu widzenia wartości, jaką generują dla osób decyzyjnych. A jak wiadomo, różne jednostki w organizacji mają do podjęcia inne decyzje, poprzez które kontrybuują w rozwoju. Zastanówmy się, czy dyrektor finansowy skupia swoją uwagę na tych samych informacjach co dyrektor marketingu? Czy w równym stopniu interesuje ich lojalność klienta i konwersja leadów? Czy jednak dyrektor finansowy bardziej będzie zainteresowany aktywami i pasywami przedsiębiorstwa, które dyrektora marketingu mogą przyprawić o ból głowy?
Podejście produktowe skupia się na tworzeniu zespołów interdyscyplinarnych łączących osoby biznesowe z osobami technicznymi i bliską współpracą z biznesem, by na bieżąco konfrontować postępy prac z potrzebami biznesowymi. Zastosowanie tego podejścia może być zastosowane szeroko od zapewnienia właściwych zbiorów danych, przez raportowanie po dostępność danych w sandbox’ach do zaawansowanych analiz (rysunek 1).
Jak zacząć zmiany?
Podejście produktowe bazuje przede wszystkim na zmianie myślenia o tym jak dane są lub mogą być konsumowane w organizacji.
Każda organizacja składa się z trzech filarów: procesów, technologii oraz ludzi. Gdy organizacja myśli o polepszeniu wykorzystywania danych, przede wszystkim skupia się na procesach i technologii, które są względnie najprostszą częścią wprowadzanych zmian, zapominając o najbardziej ryzykownym i nieprzewidywalnym czynniku, czynniku ludzkim. Dlatego istotnym w tym podejściu jest kompleksowa zmiana kultury organizacyjnej, ponieważ ostatecznie to od pracowników wszystkich szczebli będzie zależeć powodzenie wprowadzanych zmian.
Pierwszym krokiem jest zobowiązanie C-managementu do zapewnienia czasu, przestrzeni i finansowania nowego podejścia. Szczególnie przestrzeń i czas jest istotnym elementem, ponieważ nowe podejście może wymagać zmian procesowych i organizacyjnych.
Drugim krokiem jest zbudowanie produktów skrojonych pod indywidualne potrzeby biznesowe grup odbiorców.
Trzecim krokiem jest zaangażowanie agentów zmiany w interdyscyplinarne zespoły, które będą pracować nad dedykowanymi produktami dla poszczególnych jednostek biznesów. Następnie agenci zmiany poprzez swoje zaangażowanie mogą zaszczepiać w pozostałych pracownikach organizacji nową ideę pracy z danymi.
Czwartym krokiem, jest szeroko zakrojony program uczenia pracowników pracy z danymi, rozumienia i interpretacji danych, by czuli się pewnie i komfortowo z nowo dostarczonymi produktami.
Piątym krokiem jest utrzymywanie wysokiej jakości i ciągły rozwój do zmieniającego się otoczenia rynkowego dostarczanych produktów by jak najlepiej służyły pracownikom w osiąganiu ich celów. Piąty krok byłby trudny do realizacji bez użycia i wdrożenia technologii, które wspierają szeroki dostęp do danych w organizacji. Takimi wiodącymi technologiami na rynku wg. macierzy Gartnera są Tableau i Power BI. Umiejętne wykorzystanie, tych narzędzi przez działy analityczne dają organizacjom przewagę konkurencyjną poprzez szybszy dostęp do lepszej jakości informacji, a przez to możliwość reagowania w czasie rzeczywistym na szybko rozwijające się otoczenie rynkowe.
Przyszłość już przyszła i nie da się dłużej ignorować jaką wartość dla rozwoju i przetrwania biznesu mają dobrej jakości i szybko dostarczane analizy. Przedsiębiorstwa, aby nadążać za trendami, muszą inwestować w technologię, ale też równolegle w rozwój kompetencji pracowników by w pełni zmonetyzować potencjał technologiczny. Na rynku jest wiele dostępnych kursów uczących używania narzędzi, jednak brakuje podejścia holistycznego, które uczyłoby zmiany myślenia o danych i skupiało się na możliwościach, jakie one dają niż na tym jak je obrobić i pokazać. Taką nową jakość zawierają w sobie studia podyplomowe „Wizualna Analityka Danych” na Politechnice Warszawskiej, które podnoszą umiejętności w zakresie korzystania z narzędzi takich jak Tableau i Power BI, ale też w module „Techniki efektywnej komunikacji wyników” koncentrują się na przekucie danych w wartościową informację biznesową i jej znaczeniu w procesach decyzyjnych.