Używasz przeglądarki Internet Explorer 6, która nie jest wspierana nawet przez producenta.
W związku z tym, cześć funkcjonalności serwisu może być dla Ciebie niedostępna.
Radzimy zainstalowanie nowszej wersji Internet Explorera (zobacz tu) lub innej przeglądarki (zobacz tu lub tu).
...

Zaufanie a analityka danych
  •   

12 października   Kinga Wiśniewska
Zaufanie a analityka danych Z raportu przygotowanego przez KPMG „Guardians of trust”, który powstał na podstawie badania przeprowadzonego wśród menedżerów zatrudnionych w działach biznesowych i IT, wynika, że jedna czwarta z nich wątpi w wiarygodność wyników analityki danych. Jak więc zarządzać danymi, aby były prawidłowo wykorzystane, a wyniki analiz budziły zaufanie?
 

Zdaniem 92% menedżerów, nieprawidłowe wykorzystanie analityki danych może doprowadzić do utraty dobrej reputacji firmy. Jednocześnie zaledwie jedna trzecia z nich przyznała, że w wysokim stopniu ma zaufanie do wyników analiz wykorzystywanych w ich organizacjach. Firmy muszą wziąć odpowiedzialność za wiarygodność danych i wyników analiz przeprowadzanych na ich podstawie oraz wypracować najlepsze praktyki zarządzania danymi.

Rola analityki danych w firmach

Jak wspomniano, z badania jednoznacznie wynika, że nieprawidłowe wykorzystanie analityki danych może spowodować znaczący uszczerbek dla reputacji firm. Z kolei 61% CEO, którzy wzięli udział w badaniu „Global CEO Outlook Survey” przyznało, że budowanie zaufania klientów i partnerów biznesowych jest jednym z trzech najważniejszych priorytetów ich firm. W dobie postępującej cyfryzacji, wartość zaufania do biznesu jest nie do przecenienia. Jednak nie chodzi już tylko o zaufanie do marki, lecz także do wyników analizy danych, których wykorzystanie ma wpływać na zwiększenie efektywności biznesu. Tymczasem zaledwie 35% ankietowanych przyznało, że posiada pełne zaufanie do wyników stosowanej analityki danych. 19% menedżerów odpowiedziało, że posiada ograniczone zaufanie, a 6% przyznało, że całkowicie nie ufa wynikom analiz. Uczestnicy badania KPMG wskazali, że firmy chcące zapewnić wzrost zaufania do wykorzystywanych danych i analiz, powinny skupić się m.in. na: zapewnieniu wzrostu transparentności algorytmów i metodologii, wzmocnieniu wewnętrznych i zewnętrznych mechanizmów zapewniania jakości, nadzorze nad sztuczną inteligencją czy rozwoju standardów stosowanych zabezpieczeń.

- Nie ulega żadnej wątpliwości, że potencjał analityki danych jest ogromny. Zarówno w kontekście ochrony już istniejącej wartości w firmie, doskonalenia procesów, jak i tworzenia nowej wartości. Analityka danych jest wykorzystywana w przedsiębiorstwach od bardzo wielu lat, teraz jednak, ze względu na postępującą cyfryzację procesów wewnętrznych i relacji z otoczeniem zewnętrznym, a także coraz większą liczbę dostępnych źródeł, wartość, jaką można uzyskać z dobrej jakości analiz, jest nieporównywalnie większa – mówi Krzysztof Radziwon, partner w dziale usług doradczych, szef zespołu ds. zarządzania ryzykiem w KPMG w Polsce. I dodaje: - Nadal w większości organizacji zasadniczym wyzwaniem pozostaje zapewnienie jakości wyników analiz.

Ekspert KPMG uważa, że nie chodzi tu tylko i wyłącznie o algorytmy, ale przede wszystkim o spójne rozumienie przez różnych uczestników procesu określonych kategorii danych. Jak zauważa Krzysztof Radziwon, często w praktyce okazuje się, że nawet tak oczywiste pojęcia jak „sprzedaż”, „marża” czy „terminowy” wcale nie są tak jednoznaczne, a ich rozumienie w różnych częściach organizacji jest bardzo odmienne.

Odpowiedzialność za analitykę danych

Pomimo tego, że menedżerowie mają świadomość rosnącej odpowiedzialności za analitykę danych, to wciąż brakuje klarownego przypisania odpowiedzialności za ten obszar w strukturze organizacyjnej. Według 19% respondentów taka rola spoczywa na dyrektorze ds. informatyki. Z kolei w 13% organizacji odpowiedzialność za obszar analityki danych przypisana jest dyrektorowi ds. danych, a w blisko co dziesiątej firmie odpowiedzialność spoczywa na programistach. Zdaniem blisko jednej piątej ankietowanych odpowiedzialność za zapewnienie jakości w obszarze analityki danych powinna spoczywać na zewnętrznych podmiotach, np. niezależnych audytorach.

- Przypisanie odpowiedzialności za jakość danych oraz za obszar analityki danych rozumiany jako zapewnienie kontroli nad rzetelnością algorytmów, procesem wytwórczym i utrzymaniem środowiska jest niezwykle istotne z perspektywy budowania zaufania do wyników analityki danych. Nie da się budować zaufania do wyników, które pochodzą z „czarnej skrzynki”, za którą nikt nie chce wziąć odpowiedzialności – dodaje Krzysztof Radziwon.

Coraz więcej decyzji biznesowych podejmowanych jest na podstawie analizy danych. Powoduje to jednak dyskusję, kto powinien być odpowiedzialny za skutki złej decyzji biznesowej podjętej na podstawie dostępnych danych. Ponad sześciu na dziesięciu respondentów uznało, że odpowiedzialność powinna zostać przeniesiona na dostawcę usług lub osoby odpowiedzialne za technologie w firmach. Analogicznie, w przypadku wskazania odpowiedzialnego za potencjalny wypadek spowodowany przez w pełni autonomiczny samochód, 62% respondentów uznało, że winnym kolizji jest twórca oprogramowania. Na producenta auta oraz osobę będącą w samochodzie, która mogła zapobiec wypadkowi, wskazało 54% ankietowanych.

Analitycy KPMG w podsumowaniu raportu stwierdzają, że w erze cyfrowej wiarygodne wyniki analityki danych będą kluczowym elementem przewagi konkurencyjnej. Zaufanie można zbudować przez przemyślane, strategiczne podejście do zarządzania - takie, które znacznie wykracza poza tradycyjne patrzenie na technologię i ryzyko.

W związku z bezprecedensowym wykorzystaniem analityki danych w podejmowaniu decyzji, zarządzanie maszynami powinno być bardziej strategiczne i zintegrowane z zarządzaniem całym przedsiębiorstwem.We wnioskach z raportu znalazło się stwierdzenie, że nadszedł czas, aby firmy wzięły odpowiedzialność za analizy i sztuczną inteligencję, zapewniając jakość, skuteczność, prężność i uczciwość. W tym celu szefowie i kadra zarządzająca powinni zarządzać maszynami tak rygorystycznie, jak zarządzają swoimi pracownikami. Podejście takie wymaga wypracowania standardów i kontroli, które wykraczają poza ramy operacyjne, aby możliwe było skupienie się m.in. na kulturowych i etycznych kwestiach dotyczących zarządzania zaawansowaną technologią w całym przedsiębiorstwie.

 

 

O raporcie:

Raport KPMG International „Guardians of trust. Who is responsible for trusted analytics in the digital age?”powstał na podstawie badania przeprowadzone wśród 2190 menedżerów zatrudnionych w działach biznesowych i IT, którzy są odpowiedzialni za wdrażanie strategii analityki danych. W badaniu wzięły udział firmy ze Stanów Zjednoczonych, Wielkiej Brytanii, Indii, Niemiec, Francji, Chin, Republiki Południowej Afryki, Brazylii i Australii. Badanie przeprowadzono w lipcu 2017 roku.

 

  •   
Wszelkie prawa w tym Autora, Wydawcy i Producenta bazy danych zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów zabronione. Korzystanie z serwisu i zamieszczonych w nim utworów i danych wyłącznie na zasadach określonych w Regulaminie Korzystania z Serwisu.

Komentarze

Aby komentować, musisz się zalogować.