Duże modele językowe mogą usprawnić pracę z danymi i nad analityką, wspierając ludzi na każdym etapie – od przygotowania danych, przez optymalizację modeli, po interpretację wyników.
Rozbłysk zainteresowania generatywną sztuczną inteligencją (GenAI) grozi przyćmieniem zaawansowanej analityki. Firmy, które przeznaczają swoje zasoby na szeroko reklamowane duże modele językowe (LLM‑y), takie jak ChatGPT, mogą zaniedbać zaawansowaną analitykę o sprawdzonej skuteczności w poprawie decyzji i procesów biznesowych, takich jak prognozowanie następnych najlepszych ofert dla klientów lub optymalizacja łańcuchów dostaw.
Konsekwencje tego dla alokacji zasobów i tworzenia wartości są znaczące. Zespoły zajmujące się danymi i analityką, z którymi współpracujemy, zgłaszają, że projekty związane z generatywną AI, często forsowane przez liderów obawiających się przegapienia kolejnej wielkiej innowacji, pochłaniają fundusze z ich budżetów. Ta redystrybucja środków może osłabić inicjatywy mające na celu dostarczenie wartości dla całej organizacji, mimo że wiele przedsiębiorstw wciąż nie znalazło przekonujących argumentów biznesowych przemawiających za LLM‑ami.
Należy jednak podkreślić, że zaawansowana analityka i LLM‑y oferują różne, ale uzupełniające się możliwości. Technologie te mogą współpracować ze sobą, łącząc na przykład niezawodną moc predykcyjną zaawansowanej analityki opartej na uczeniu maszynowym z możliwościami języka naturalnego LLM‑ów.
Biorąc pod uwagę te uzupełniające się możliwości, widzimy szanse dla generatywnej sztucznej inteligencji w radzeniu sobie z wyzwaniami na etapie opracowywania i wdrażania zaawansowanej analityki – zarówno w zastosowaniach predykcyjnych, jak i preskryptywnych. LLM‑y mogą pomóc użytkownikom we włączaniu nieustrukturyzowanych źródeł danych do analiz, lepszym tłumaczeniu problemów biznesowych na modele analityczne oraz rozumieniu i wyjaśnianiu wyników modeli.
W artykule przedstawiamy eksperymenty z wykorzystaniem LLM‑mów do usprawnienia zaawansowanej analityki. Opisujemy także najlepsze praktyki w monitorowaniu i weryfikowaniu wyników, biorąc pod uwagę, że LLM‑y czasami mogą dostarczyć niewiarygodnych lub błędnych danych.