Paliwo dla Przemysłu 4.0

Paliwo dla Przemysłu 4.0

Jednym z kluczowych trendów, który przyczyni się do szerszej realizacji koncepcji Przemysłu 4.0 wśród polskich przedsiębiorstw będzie zbieranie, agregacja i analiza dużych zbiorów danych. Natomiast standardem mającym na celu wsparcie procesów decyzyjnych, identyfikacji nieefektywności oraz maksymalizacji jakości produkcji będzie Data Science – jedna z gałęzi Big Data.

Odpowiednie wdrożenie tych działań może poprawić wyniki poszczególnych działów nawet o 15% – przewidują analitycy z TogetherData.

Big Data, a Data Science

Data Science to dziedzina analityki szerokich strumieni danych, którą zaczyna się określać mianem „nauki o danych”. Jest to proces pozyskiwania, analizowania, wizualizacji i wnioskowania z zarówno ustrukturyzowanych jak i nieustrukturyzowanych danych, z użyciem m.in. takich technologii jak uczenie maszynowe i analiza predykcyjna. „Nauka o danych” w przeciwieństwie do Big Data, nie tylko agreguje i przetwarza dane, ale także tworzy całościowy model ich analizy, ukierunkowanej pod uzyskanie odpowiednich informacji i wniosków. W ciągu najbliższych dwóch lat zapotrzebowanie na wdrożenie systemów Data Science w Polsce wzrośnie nawet o 40 proc., wynika z szacunków firmy analitycznej TogetherData. Największy popyt będzie panował wśród firm z sektora produkcyjnego.

Big Data w przemyśle to jedynie prosta wizualizacja danych pozyskanych przykładowo z czujników monitorujących awarię na linii produkcyjnej. Natomiast Data Science, czyli „nauka o danych” wyznacza cele do osiągnięcia, determinuje rodzaj danych potrzebnych do analizy oraz dobór modelu statystycznego. – mówi Michał Grams, prezes zarządu TogetherData. W średniej wielkości zakładzie produkcyjnym z branży FMCG liczba zdarzeń podlegających ciągłej zmianie wartości jest liczona w tysiącach na sekundę. Dzięki odpowiedniemu zastosowaniu algorytmów, można przewidzieć jakie są główne czynniki wpływające na obniżenie bądź zwiększenie jakości produktu.

Kluczowy element Przemysłu 4.0

Dzięki zastosowaniu odpowiednich algorytmów systemy Data Sciecne są w stanie identyfikować wąskie gardła produkcji oraz zredukować występowanie awarii oraz przestojów w działaniu linii produkcyjnej. Zdaniem ekspertów TogetherData, analiza danych historycznych i aktualnych pochodzących z raportów dotyczących kontroli jakości oraz przebiegu procesów produkcji, umożliwia zwiększenie efektywności produkcji o średnio 15 proc. Natomiast analiza predykcyjna informacji pochodzących z inteligentnych czujników oraz sensorów rozlokowanych na linii produkcyjnej przyczynia się do optymalizacji kosztów produkcyjnych, w tym do zmniejszenia o średnio 20 proc. kosztu utrzymania i serwisowania maszyn.

Analiza danych dotyczących planowania oraz zapotrzebowania na dostawy, informacjach o pogodzie, czy remontach dróg pozwala na zwiększenie terminowości o średnio 10 proc., oraz optymalizację kosztów logistycznych o średnio 15 proc. Możliwa staje się predykcja zapotrzebowania oraz efektywniejsze zaplanowanie dostarczenia zaopatrzenia, a także optymalizacja stanów magazynowych. Dzięki integracji danych z każdego etapu życia produktu, możliwe jest podniesienia jakości w łańcuchu dostaw o blisko 10 proc., wynika z szacunków TogetherData.

– Zastosowanie narzędzi Data Science umożliwia identyfikację głównych czynników wpływających na obniżenie, bądź zwiększenie jakości produktów poprzez monitorowanie i analizę danych dot. procesu produkcji, jakości wyrobów, ilości wad w danych partiach towarów. Po agregacji tych danych z danymi dotyczącymi zakupów czy logistyki możliwa będzie historyczna analiza pochodzenia surowca, jego jakości oraz predykcja wskaźników wpływających na niższą niż średnia jakość produktu końcowego. – mówi Michał Grams.

Analiza prognozy pogody i zbiorów z lat poprzednich daje firmom z branży produkcji żywności możliwość przewidywania wolumenów produkcji. Inteligentne algorytmy są w stanie zautomatyzować proces oceny ryzyka niewypłacalności potencjalnych kontrahentów i klientów, co umożliwia otrzymanie prognoz o ewentualnym opóźnieniu w płatnościach. Z danych TogetherData wynika także, że zastosowanie narzędzi Data Science przyczynia się do efektywnej estymacji marży produktowej oraz audytu wydatków marketingowych jak i automatyzacji predykcji ROI z działań reklamowych.

Główne wyzwania

Różnorodność dostępnych źródeł danych stwarza trudności w stosowaniu i wdrażaniu systemów analitycznych. Zdaniem ekspertów TogetherData, tylko cztery na dziesięć firm w Polsce nie skarży się na brak specjalistycznej wiedzy, aby móc wykorzystać duże zbiory danych do dalszej analizy. Uporządkowanie zetabajtów informacji pochodzących zarówno ze źródeł online jak i offline, jest największym wyzwaniem dla podmiotów z branży przemysłowej. Wynika to z faktu, iż wciąż poziom cyfryzacji polskich przedsiębiorstw jest zatrważająco niski. Badania przeprowadzone w 2018 roku przez firmę ASD Consulting dowodzą, iż 84 proc. firm z branży produkcyjnej gromadzi informacje ręcznie, a co czwarte przedsiębiorstwo przetwarza je analogowo w formie papierowej. Systemami skanerowymi i kodami kreskowymi wspomaga się jedynie 16 proc. firm, a zautomatyzowane procesy gromadzenia cyfrowych informacji z cyklu produkcyjnego wykorzystuje niespełna 12 proc. przedsiębiorstw. Największą barierą blokującą proces „datyzacji” polskiego przemysłu jest opór pracowników – wynika z badania ASD Consulting.

Wyzwaniem dla polskich przedsiębiorców będzie nie tylko sama kwestia wdrożenia narzędzi analizujących dane, ale także sprytnej i efektywnej strategii ich badania i wykorzystania. Moda na Big Data zmieni się w trend Data Science – tłumaczy Michał Grams. – Firmy muszą zmienić swoje podejście. Nie liczy się bowiem ilość badanych i wykorzystanych biznesowo danych, lecz technologia, rodzaj i forma narzędzi używanej do analizy – dodaje. Zdaniem ekspertów z TogetherData agregacja danych z wielu źródeł oraz wygenerowanie wysokopoziomowej, między-departamentowej bazy  pozwala zwiększyć wyniki działów produkcji, jakości czy logistyki o średnio 15 proc.

Poleć ten artykuł:

Polecamy