Sztuczna Inteligencja? TAK! Wdrażamy! Tylko… od czego zacząć?

Kilka słów na temat tego, jak wygląda typowy projekt wdrożenia SI w przedsiębiorstwie.

Marcin Rojek
10 min readMar 7, 2024

Słowem wstępu…

Już 23 proc. polskich firm wdrożyło AI, donosi CRN (link: Już 23 proc. polskich firm wdrożyło AI — CRN), dodając, że liczba firm implementujących AI wzrosła o 22 proc. w porównaniu z 2022 r. Trend oczywiście jest globalny i na całym świecie, praktycznie każdego dnia, media opisują kolejne, ciekawe historie, dotyczące wykorzystania narzędzi opartych na sztucznej inteligencji (SI, AI, ang. Artificial Intelligence). Czasami są to błahostki typu “używamy chata GPT do sprawdzania błędów językowych w raportach czy do napisania e-maili” i ot całe wdrożenie AI w firmie. Innym razem, mówimy o złożonym systemie, który potrafi przetwarzać ogromne ilości danych w czasie rzeczywistym, łączyć je z sygnałami otrzymywanymi na bieżąco z wielu źródeł i na tej podstawie, sugerować, np. operatorom sieci energetycznej, optymalne ustawienia, minimalizujące straty energii lub prawdopodobieństwo wystąpienia awarii. Nie ma reguły. Ile ludzi, tyle wizji na temat zalet, wad, niebezpieczeństw, czy wreszcie pomysłów na wykorzystanie SI w biznesie, firmie czy życiu prywatnym. Faktem jednak jest, że systemy korzystające z elementów SI są już dookoła nas i często dostarczają solidnych narzędzi, wspierających naszą pracę, podejmowanie decyzji i otwierających przed nami nowe możliwości.

Typowe przykłady, gdzie SI znajduje zastosowanie.

  • Szybka analityka danych, czyli zamiana danych w informację. Np. może to być analiza danych pod kątem znalezienia odpowiedzi na pytania typu co się stało? dlaczego? jakie mamy najlepsze opcje? Innym razem będzie to analiza obrazów, dźwięków, tekstów, dokumentów, e-maili, etc. pod kątem poszukiwania konkretnych odpowiedzi, jak np. szczegóły zamówienia, lokalizacji usterki, identyfikacji wadliwej części, etc. Analityka danych to także szeroko rozumiana automatyzacja typowych prac biurowych np. związanych z przetwarzaniem dokumentów, przygotowywaniem treści, etc.
  • Automatyzacja kontroli jakości, czyli monitoring tworzenia produktów i powiązanych procesów, eliminowanie potencjalnych błędów ludzkich w celu uzyskania spójnych i wiarygodnych wyników, zwiększenie ogólnej jakości i niezawodności.
  • Optymalizacja działań i zadań dot. konserwacji systemów, czyli np. ograniczenie niepotrzebnych przeglądów i obniżenie kosztów konserwacji, przewidywanie potencjalnych awarii i przestojów, etc.

Kilka słów o prywatności danych…

SI często odpowiada za ciągły monitoring produkcji, procesów, korespondencji itp. itd. To z kolei, pozwala znacząco odciążyć ludzi z nudnej i żmudnej pracy oraz uwolnić ich czas na bardziej kreatywne zadania. Pamiętajmy jednak, że w kontekście takiego wykorzystania SI, pojawiają się różne kwestie i związane z nimi dylematy, dotyczące prywatności naszych danych. Nie chodzi już tutaj o same dokumenty, do których AI dostaje dostęp, ale o całość informacji, którą AI jest w stanie wywnioskować na ich podstawie. AI aby działać i pomóc nam zautomatyzować wybrane prace, często dostaje dostęp do tego co czytamy, jak długo to robimy, gdzie i co klikamy. W kontekście rozwiązań przemysłowych, są to najczęściej dostępy do danych typu odczyty z czujników, zdarzenia z linii produkcyjnych, etc. Nierzadko są to krytyczne dane dla poprawnego funkcjonowania naszych przedsiębiorstw. Wspomniany przeze mnie na początku niniejszego wpisu artykuł mówi o tzw. rozwiązaniach chmurowych. Wobec tego, czym jest chmura? W uproszczeniu i na potrzeby niniejszego wpisu przyjmijmy, że jest to komputer, umieszczony gdzieś w odległej serwerowni, na której zainstalowano np. nasze AI. Pomijając już kwestie typu czy “odległy” to komputer z danego regionu, dedykowany tylko nam, czy dowolna maszyna z puli dostępnych serwerów oferowanych przez naszego dostawcę chmury, AI w chmurze to AI zainstalowane na komputerze znajdującym się poza naszą firmą. Co z tego wynika? Poza kwestiami dotyczącymi prywatności naszych danych, o które musimy zadbać podpisując umowę z dostawcą rozwiązań chmurowych, aby AI w chmurze mogło działać, musimy do niego wysłać dane, najczęściej przy pomocy łącza internetowego. Tutaj, często w kontekście rozwiązań przemysłowych, pojawia się kolejna kwestia oprócz prywatności: zapewnienie ciągłej i stabilnej łączności pomiędzy źródłami danych a naszym odległym AI. Łącznośc ta, nie tylko musi zapewnić odpowiednio wydajne pasmo do ciągłego przesyłania, często ogromnych porcji danych, ale i przede wszystkim, działać stabilnie, by odpowiedzi mogły do nas dotrzeć na czas. Bo przecież ile warty jest nawet najdroższy system alarmowy, który informuje nas o zdarzeniu godzinę po jego wystąpieniu? Tak np. działa popularny chat GPT. Wpisujemy tekst lub wysyłamy do niego dokument, dane te są wysyłane na odległe serwery, tam przetwarzane i w odpowiedzi dostajemy np. podsumowanie, wnioski, etc. Analogicznie, chmurowe rozwiązanie AI dla przemysłu pobiera dane z naszej firmy, wysyła je na serwery w chmurze, tam następuje analiza i po jej ukończeniu, odsyłana jest odpowiedź.

Dla wielu wdrożeń, taki zabieg, polegający na udostępnianiu danych firmom trzecim, nie jest problemem. Wielu dostawców chmurowych zapewnia i często gwarantuje prywatność. Niemniej jednak, w oparciu o moje doświadczenia, coraz częściej zdarzają się wdrożenia, w których albo nie chcemy naszych danych nikomu udostępniać, albo wręcz technologicznie jest to niemożliwe lub staje się zbyt drogie. Dodatkowo, wolimy i bardziej optymalnie (kosztowo i wydajnościowo) jest przetwarzać dane jak najbliżej źródła, które je generuje.

Wolimy i bardziej optymalnie (kosztowo i wydajnościowo) jest przetwarzać dane jak najbliżej źródła, które je generuje.

Co wtedy? Wówczas z pomocą przychodzi tzw. Edge AI, czyli lokalne uruchomienie SI na naszych własnych komputerach. Innymi słowy, Edge AI, to zainstalowanie rozwiązania SI w taki sposób, że nie wysyła ono żadnych danych czy informacji poza komputer, na którym zostało uruchomione. Dane są przetwarzane lokalnie, na konkretnym, dedykowanym do tego celu, komputerze. Rozwiązania SI oparte o Edge AI daje wiele zalet, m. in.:

  • Możliwość podejmowania decyzji w czasie rzeczywistym, czyli natychmiastowa analiza danych bezpośrednio na urządzeniu. To z kolei umożliwia szybkie podejmowanie decyzji bez konieczności korzystania z usług zewnętrznych (np. chmurowych). Ma to kluczowe znaczenie dla zastosowań przemysłowych.
  • Efektywność energetyczna. Edge AI pomaga zoptymalizować zużycie energii, przetwarzając dane lokalnie i zmniejszając potrzeby związane z zapewnieniem ciągłej transmisj danych.
  • Praca w trybie offline. Edge AI zapewnia ciągłość działania i podejmowanie decyzji nawet wtedy, gdy nie ma połączenia z Internetem.
  • Redundancja i niezawodność. Rozproszone urządzenia oferują redundancję i odporność na awarie, zapewniając ciągłość działania nawet w przypadku wystąpienia awarii.
  • Zwiększona prywatność i bezpieczeństwo. Przetwarzanie AI na urządzeniu brzegowym (Edge AI) zmniejsza potrzebę przesyłania wrażliwych danych na zewnętrzne serwery, zwiększając prywatność i bezpieczeństwo danych.
  • Niskie wymagania dotyczące przepustowości łącza internetowego. Edge AI minimalizuje potrzebę ciągłego przesyłania danych, zmniejszając przeciążenie sieci i związane z tym koszty.
  • Personalizacja i adaptacja. SI na urządzeniach można dostosować do konkretnych wymagań i łatwo aktualizować pod kątem ciągle zmieniających się warunków (np. adaptacja urządzenia oceniającego jakość produktu do nowych wymogów jakościowych).

Jak wygląda wdrożenie SI w firmie?

No dobrze, po tym, jak omówiliśmy sobie kilka podstawowych kwestii aby temat wdrożenia zawiesić jakoś w przestrzeni opisanej przez cele, oczekiwania i prywatność naszych danych, czas przejść do sedna sprawy i omówić, jak wygląda typowe wdrożenie SI w firmie. Wychodzę z założenia, że zdecydowana większość współczesnych wdrożeń SI opiera się na wykorzystaniu i dostosowaniu do naszych potrzeb gotowych rozwiązań (produktów), dostępnych na rynku. Podejście takie pozwala skrócić czas wdrożenia i znacząco zmniejszyć jego koszt (lekko mówiąc, o jakieś 90%). Przede wszystkim jednak, wdrożenie oparte o produkty sprawdzone, to także większa gwarancja sukcesu na zasadzie: “u nas też zadziała”. Dlatego, zrozumiałym jest fakt, że przy wdrożeniach AI, wolimy korzystać z usług firm specjalizujących się w tego typu projektach i zamiast “projektów na zamówienie, pod klucz” wybieramy opcję “dostosowania do naszych potrzeb” gotowych produktów. Kolejna kwestia, to omówione wcześniej Edge AI. Rozwiązania chmurowe mają szereg zalet. Jeśli jednak mówimy o automatyzacji w przemyśle, automatyzacji złożonych prac biurowych czy choćby wykorzystania SI do przetwarzania danych wrażliwych, to zdecydowanie Edge AI tutaj króluje. Przy okazji, polecam artykuł, po angielsku: Edge AI Software Market Worth $1.1 Billion in 2023 Projected to Hit $4.1 Billion by 2028: Trends & Analysis by Offering, Data Type, Vertical, and Region (yahoo.com). Ewentualnie, jako ciekawostkę, wklejam link do automatycznego, wykonanego przez AI, tłumaczenia tego artykułu na j. polski: Rynek oprogramowania Edge AI wart 1,1 miliarda dolarów w 2023 r. Przewiduje się, że do 2028 r. osiągnie 4,1 miliarda dolarów: trendy i analiza według oferty, typu danych, branży i regionu (finance-yahoo-com.translate.goog).

Natomiast jeśli chodzi o samo wdrożenie SI w firmie, to jest to proces, który zazwyczaj wygląda jak na załączonym poniżej obrazku:

Wdrożenie Sztucznej Inteligencji w Firmie

Na początku pojawia się pomysł. Czasami jest on wynikiem inspiracji po przeczytaniu artykułu lub książki, poczynionej obserwacji czy efekt przemyśleń, które pojawiają się w naszych głowach wykonując często czynności kompletnie niezwiązane z firmą np. podczas aktywności sportowej. Pomysłów i inspiracji możemy także szukać w różnego rodzaju szkoleniach, warsztatach czy webinariach. Przy okazji, jako firma byteLAKE często organizujemy tego typu wydarzenia (więcej tutaj: https://www.bytelake.com/pl/SzkolenieAI i tutaj: welcome@byteLAKE.com).

Kolejne etapy to “Zbieranie Danych”, “Praca z Danymi”, “Uczenie SI (model)” oraz “Kalibracja”. Po krótce powiem, że etapy te dotyczą analizy dostępnych danych, zbierania nowych lub ich uzupełniania oraz szeregu spotkań mających na celu przekucie wiedzy ekspertów na postać cyfrową, zjadliwą przez SI. Magiczne słowo “model”, które pojawia się na powyższym obrazku, dotyczy określenia “model SI” i w tym kontekście oznacza takie SI, które jest czegoś nauczone. Innymi słowy, SI to algorytm komputerowy. Jeśli nauczymy ten algorytm rozpoznawać np. pęknięcia w elemencie skrzyni biegów, to takie nauczone SI nazywa się modelem SI. Stąd na obrazku pojawia się słowo “model” jako wynik etapu uczenia SI.

Jeśli nasze wdrożenie SI realizuje firma specjalizująca się w tego typu projektach, to wówczas te kilka etapów sprowadzi się do 2 elementów:

  • Definicja Scenariusza, czyli określenia celu dla SI. Może to być np. wykrywanie anomalii powierzchniowych, monitorowanie linii montażowych, automatyzacja operacji, przyspieszanie procesów (np. produkcji, zakupów), automatyzacja powtarzalnych i niebezpiecznych zadań, ulepszanie analityki w celu lepszego podejmowania decyzji czy wykrywanie potencjalnych awarii. Itp. Itd.
  • Wyjaśnienie Oczekiwań, czyli np. ustalenie rozmieszczenia i liczby kamer lub czujników, które mają być używane, jeśli wiemy. Opisu istniejących i potencjalnych źródeł danych, w tym przyszłych, jeśli są znane. Określenia żądanego poziomu dokładności działania SI. Podania informacji o tempie produkcji i oczekiwanej wydajności systemu, biorąc pod uwagę przyszły wzrost. Zdefiniowania wymagań dotyczących czasu pracy bez przestojów i wszelkich innych specyficznych wymagań systemowych.

Zdecydowana większość współczesnych wdrożeń SI opiera się na wykorzystaniu i dostosowaniu do naszych potrzeb gotowych rozwiązań (produktów), dostępnych na rynku. Dzięki temu możemy skrócić czas wdrożenia i znacząco zmniejszyć jego koszt (lekko mówiąc, o jakieś 90%).

Reasumując, jeśli chodzi o to, jak działamy w byteLAKE, to wdrożenie SI w polega na realizacji następujących kroków:

  1. Wyjaśnienie scenariusza
    Najczęściej sprowadza się do udostępnienia nam przykładowych zdjęć, filmów lub innych istotnych danych. W razie potrzeby, przeprowadzane są konsultacje (online lub spotkania osobiste). Na tej podstawie jesteśmy zazwyczaj w stanie przygotować szacunkowy koszt i czas potrzebny na wdrożenie SI.
  2. Wstępny wgląd w dane
    W kolejnym kroku musimy lepiej zrozumieć dane, czyli wszystkie aspekty, w oparciu o które chcemy nasze SI czegoś nauczyć. Nie jest na tym etapie oczywiste, które dane są potrzebne, ani czy są one kompletne. Dlatego etap ten realizujemy wieloetapowo i zaczynamy od stopniowego wyjaśnienia co nasze dane zawierają, jakie są w nich zależności, zakresy, etc. Identyfikujemy nietypowe scenariusze lub wyjątki. Ustalamy, czy dane historyczne są dostępne i czy są w nich luki, jeśli o nich wiemy. Zdarza się, że luki istnieją, ale nie jesteśmy tego świadomi lub po prostu o nich zapomnieliśmy. Omawiamy metody przechowywania danych i oceniamy potrzebę zmian lub ulepszeń w tym obszarze. Dzielimi się przykładowymi danymi, wstępnymi wynikami działania SI i coraz lepiej przygotowujemy je do uczenia SI.
  3. Uczenie, uczenie, uczenie + kalibracja wyników
    To etap, w którym zaczynają pojawiać się pierwsze wyniki działania AI. Jako firma, poczyniliśmy wieloletnie inwestycje w stworzenie własnych produktów, dzięki czemu nie musimy budować algorytmów AI, konfigurować sieci neuronowych, ani korzystać z usług firm trzecich. Mimo tego, że każde wdrożenie AI jest inne, tak jak każde przedsiębiorstwo ma swoją specyfikę działania, baza, czyli algorytmy, na których rozwiązanie AI jest oparte pozostaje mniej więcej ta sama. Innymi słowy: produkty byteLAKE potrafią działać na danych wizyjnych, dźwiękowych, serii odczytów z czujników, danych online, etc. oraz łączyć je i na ich podstawie wyciągać wnioski. To, czego te wnioski będą dotyczyć, zależy już od tego, jakimi danymi produkty byteLAKE zasilimy w trakcie uczenia. Dodatkowo, nasze produkty działają w konfiguracji Edge AI, czyli bezpośrednio na komputerach, na których są instalowane. Innymi słowy: AI od byteLAKE nie wysyła żadnych danych poza infrastrukturęfirmy, w której jest uruchomione oraz przetwarza dane w informację na miejscu. Dzięki temu gwarantujemy prywatność danych, bezpieczeństwo wdrożenia oraz znaczne obniżenie kosztów wdrożenia. Koszt utrzymania systemu opiera się o roczną, stałą licencję i nie zleży od żadnych zmiennych współczynników.
  4. Po uczeniu następuje integracja rozwiązania AI z systemami w firmie. Generalnie produkty byteLAKE posiadają wiele interfejsów komunikacyjnych. Mogą być uruchamiane w formie modułów wbudowywanych w inne systemy (np. MES, ERP, CRM, etc.), wymieniać z nimi dane poprzez dedykowane API, pliki XML, JSON, etc.

Całość trwa od kilku tygodni do kilku miesięcy w porównaniu z wieloletnimi inwestycjami gdyby każdy element trzeba było projektować od podstaw. Dodatkowo, produkty byteLAKE są w pełni skalowalne, czyli działają zarówno na pojedynczych komputerach, jak i na rozwiązaniach serwerowych, gdy pojawi się konieczność zwiększenia mocy obliczeniowych i rozbudowy rozwiązania o dodatkowe moduły. Bardzo często przygodę z AI zaczynamy od instalacji prostego rozwiązania, analizującego dane z kilku czujników. W miarę upływu czasu rozbudowujemy naszą infrastrukturę pomiarową i do AI chcemy dołożyć nowe możliwości. Produkty byteLAKE są na to gotowe i gwarantujemy wydajne ich działanie zarówno na konfiguracjach typu desktop (pojedynczy komputer), jak i również tych opartych na wielu serwerach wyposażonych w wiele procesorów i wiele kart graficznych. Wspomnę jeszcze, że stale współpracujemy z wiodącymi dostawcami rozwiązań sprzętowych np. Intel®, Lenovo czy NVIDIA, dzięki czemu gwarantujemy maksimum wydajności oraz minimalizację kosztów wdrożenia SI w firmie. Przykładowo, nasze produkty SI do automatyzacji inspekcji jakościowej w produkcji przemysłowej zoptymalizowaliśmy pod rozwiązania wspomnianych producentów tak, że rozwiązanie możemy dowolnie skalować, w zależności do potrzeb:

  • od najprostszych wdrożeń, opartych o mini komputer klasy PC, przemysłowy, posiadający na swoim pokładzie tylko procesor CPU, co znacznie zmniejsza koszt zakupu takiego sprzętu:
  • po bardziej złożone, oparte na serwerach typu edge, gdzie oprócz zwykłej jednostki obliczeniowej, zainstalujemy także karty GPU:
  • a skończywszy na potężnych maszynach typu HPC (ang. High-Performance Computing), zawierających na swoim pokładzie wiele procesorów i wiele kart graficznych:

O tym i kilku innych naszych wdrożeniach możecie wysłuchać na poniższym nagraniu:

Gdzie szukać dodatkowych informacji?

Polecam pozostałe artykuły na moim blogu i nie tylko. W kontekście niniejszego wpisu, najbardziej zbliżone treści znajdziecie tutaj:

Gdyby pojawiły się jakieś pytania, zapraszam do kontaktu:

--

--

Marcin Rojek

Co Founder@byteLAKE | Turning Data Into Information for Manufacturing, Automotive, Paper,Chemical,Energy sectors | AI-accelerated CFD | Self-Checkout for Retail