Reklama
Dołącz do liderów przyszłości i zdobądź przewagę! Sprawdź najnowszą ofertę subskrypcji
Dane i sztuczna inteligencja

Kto najwięcej zyskuje dzięki generatywnej AI?

5 sierpnia 2024 8 min czytania
Kartik Hosanagar
Ramayya Krishnan
Kto najwięcej zyskuje dzięki generatywnej AI?

Analiza budowy i wdrażania dużych modeli językowych ujawnia, które podmioty mogą najwięcej zyskać oraz gdzie nowi gracze odnajdą najlepsze perspektywy.

Od publicznego uruchomienia ChatuGPT dokonano olbrzymich inwestycji w technologię z zakresu sztucznej inteligencji (AI), w szczególności głębokiego uczenia i przetwarzania języka naturalnego. Fundusze venture capital włożyły pieniądze w start- -upy generatywnej AI, a korporacje zwiększyły wydatki na tę technologię w nadziei na automatyzację swoich procesów. Ekscytacja jest uzasadniona. Wczesne badania wykazały, że generatywna AI może znacząco zwiększyć produktywność. Część tych efektów można uzyskać poprzez wspomaganie ludzkiej pracy narzędziami AI, a część – poprzez jej zastępowanie.

Nadal jednak nie wiadomo, kto przechwyci wartość z tego gwałtownie rozwijającego się rynku i co ten podział zdeterminuje. Aby odpowiedzieć na te pytania, przeanalizowaliśmy ekosystem generatywnej AI – szeroko podzielony na infrastrukturę komputerową, dane, modele bazowe, modele dostrojone oraz aplikacje – aby zidentyfikować obszary, w których można się wyróżnić. Mając świadomość, że istnieją generatywne modele AI przeznaczone do tworzenia tekstów, obrazów, dźwięków i wideo, w całej naszej dyskusji będziemy się posługiwać przykładami zaczerpniętymi z modeli tekstowych (dużych modeli językowych, czyli LLM).

Infrastruktura obliczeniowa. U podstaw ekosystemu generatywnej AI leży specjalistyczna infrastruktura obliczeniowa zasilana przez wysokowydajne jednostki przetwarzania grafiki (GPU), na których modele uczenia maszynowego są trenowane i uruchamiane. Aby zbudować nowy model lub usługę generatywnej AI, firma może rozważyć zakup GPU i powiązanego sprzętu do stworzenia infrastruktury niezbędnej do trenowania i uruchamiania dużego modelu językowego (LLM) lokalnie. Prawdopodobnie byłoby to jednak kosztowne i niepraktyczne, zważywszy na fakt, że taka infrastruktura jest powszechnie dostępna za pośrednictwem głównych dostawców chmury, takich jak Amazon Web Services (AWS), Google Cloud i Microsoft Azure.

Dane. Modele generatywnej AI są trenowane na ogromnych ilościach danych z internetu. Na przykład dane treningowe dla GPT‑3 OpenAI obejmowały Common Crawl, publicznie dostępne repozytorium danych z web crawlingu (automatyczne przeglądanie stron internetowych i zapisywanie ich zawartości – przyp. red.), a także Wikipedię, książki online i inne źródła. Wykorzystanie takich zbiorów danych jak Common Crawl oznacza, że dane z wielu stron internetowych, takich jak New York Times i Reddit, zostały przetworzone podczas procesu treningowego. Ponadto modele bazowe zawierają także dane specyficzne dla określonych domen, które są pobierane z internetu, licencjonowane od partnerów lub kupowane na rynkach danych takich jak Snowflake Marketplace. Chociaż twórcy modeli AI informują o tym, jak model został trenowany, nie udostępniają szczegółowych informacji na temat pochodzenia swoich źródeł danych treningowych. Niemniej badacze byli w stanie ujawnić różne źródła danych używane do trenowania modeli AI, wprowadzając specyficzne komendy do modelu (prompt injection attacks) tak, by ten ujawnił, na podstawie jakich źródeł był uczony.

Modele bazowe. To sieci neuronowe szeroko trenowane na ogromnych zbiorach danych, bez optymalizacji pod kątem konkretnych dziedzin czy zadań końcowych, takich jak sporządzanie umów prawnych czy odpowiadanie na techniczne pytania dotyczące produktu. Modele językowe bazowe obejmują modele z kodem zamkniętym, takie jak GPT‑4 od OpenAI i Gemini od Google’a, a także modele otwarte, takie jak Llama‑2 od Meta i Falcon 40B od Instytutu Innowacji Technologicznych w Zjednoczonych Emiratach Arabskich. Wszystkie te modele opierają się na architekturze transformatora (rodzaj modelu uczenia maszynowego, który jest szczególnie skuteczny w przetwarzaniu języka naturalnego – przyp. red.), opisanej w przełomowej pracy Ashisha Vaswaniego i jego współpracowników w 2017 roku pt. Attention Is All You Need. Choć można próbować wejść na rynek generatywnej AI, budując nowy model bazowy, dane, zasoby obliczeniowe i ekspertyza techniczna potrzebne do stworzenia i trenowania wysoko wydajnych modeli stanowią znaczną barierę, co skutkuje ograniczoną liczbą wysokiej jakości dużych modeli bazowych.

RAG‑i i modele dostrojone. Modele bazowe są wszechstronne i radzą sobie dobrze z wieloma różnymi zadaniami językowymi, ich wydajność jednak może być ograniczona w przypadku zadań wymagających bardzo szczegółowej wiedzy lub danych specyficznych dla konkretnej dziedziny. Aby uzyskać dobre wyniki w zadaniach dotyczących skomplikowanych kwestii, konieczne może być wykorzystanie bardziej szczegółowych danych dotyczących wybranej dziedziny. Do projektowania usługi, która pozwala wykorzystywać duży model językowy (LLM) do określonego celu, na przykład wspierania użytkowników w rozwiązywaniu problemów technicznych z produktem, można podejść na dwa sposoby.

Pierwsze podejście polega na stworzeniu usługi, która pobiera fragmenty informacji istotne dla użytkownika i dodaje je do instrukcji (prompt) wysyłanej do modelu bazowego. W przypadku pomocy użytkownikom w rozwiązywaniu problemów technicznych oznaczałoby to napisanie kodu, który wyodrębnia odpowiednie, czyli najbardziej związane z pytaniem użytkownika, fragmenty instrukcji obsługi produktu, po czym instruuje LLM, aby na tej podstawie odpowiedział na pytanie użytkownika. Takie podejście nazywa się generowaniem wspomaganym przez pobieranie (retrieval‑augmented generation, RAG). Co prawda modele bazowe mają ograniczenia dotyczące rozmiaru promptów, które są w stanie przyjąć, jednak mogą być one naprawdę duże i liczyć około 100 tysięcy słów. Decydując się na to podejście, trzeba liczyć się z kosztami, które obejmują koszty API modelu bazowego, rosnące wraz z rozmiarem prompta wejściowego i rozmiarem odpowiedzi generowanej przez LLM. W rezultacie im więcej informacji z instrukcji obsługi jest wysyłanych do LLM, tym wyższy jest koszt jego używania.

Alternatywnym podejściem do RAG‑ów, które jest droższe ze względu na wyższe początkowe koszty związane z obliczeniami, jest dostrojenie modelu. W przeciwieństwie do dostarczania fragmentów informacji z instrukcji obsługi (czyli kontekstu) za pomocą promptów, podejście to polega na dalszym trenowaniu sieci neuronowej modelu bazowego za pomocą danych specyficznych dla wybranej dziedziny. ChatGPT jest zaprojektowany do przyjmowania instrukcji i prowadzenia konwersacji z ludźmi. Dostrajanie obejmuje ponowne trenowanie wstępnie wytrenowanego modelu bazowego, takiego jak Llama czy GPT‑4, na zbiorze danych specyficznym dla konkretnej domeny.

Chociaż podejście RAG może wiązać się z wysokimi kosztami API, ponieważ modelowi trzeba dostarczyć długie prompty, jest łatwiejsze do wdrożenia niż podejście polegające na dostrajaniu. Do tego, decydując się na RAG, nie trzeba się liczyć z kosztami obliczeń związanych z ponownym trenowaniem sieci neuronowej na nowym zbiorze danych. W rezultacie podejście RAG ma niższe koszty początkowe, ale wyższe opłaty zmienne wynikające z przesyłania informacji do modelu bazowego za każdym razem, gdy końcowy użytkownik zadaje pytanie. Z kolei podejście z dostrajaniem, choć droższe na początku, ma potencjał do uzyskania lepszych wyników i po zakończeniu jest dostępne do przyszłego użytku bez potrzeby dostarczania kontekstu dla każdego zapytania, jak ma to miejsce w przypadku RAG. Firmy posiadające wiedzę techniczną mogą uznać, że warto zainwestować w budowę warstwy narzędziowej generatywnej AI, która umożliwia stosowanie metod dostrajania i RAG, zarówno dla własnych produktów, jak i w ramach usług świadczonych na rzecz innych firm.

Aplikacje LLM. Ostatnia warstwa ekosystemu generatywnej AI składa się z aplikacji, które można zbudować na podstawie modelu bazowego lub dostrojonego, aby obsługiwać konkretne przypadki użycia. Start‑upy stworzyły aplikacje do sporządzania projektów umów prawnych (Evisort), streszczania książek i scenariuszy filmowych (Jumpcut) czy nawet odpowiadania na pytania związane z rozwiązywaniem problemów technicznych (Alltius). Te aplikacje są wyceniane jak tradycyjne oprogramowanie w modelu SaaS (z miesięcznymi opłatami za użytkowanie), a ich koszty marginalne są głównie związane z opłatami za hosting w chmurze i opłatami API od modeli bazowych.

W ciągu ostatnich kilku miesięcy giganci technologiczni i fundusze venture capital poczynili ogromne inwestycje w każdą warstwę tego ekosystemu. Uruchomiono dziesiątki nowych modeli bazowych. Podobnie firmy stworzyły modele specyficzne dla zadań, dostrojone na podstawie własnych danych, mając nadzieję, że zapewnią im one przewagę nad konkurencją. Tysiące start‑upów budują aplikacje na bazie różnych modeli bazowych lub dostrojonych.

Dowiedz się z artykułu, jakie lekcje można wyciągnąć z chmury.

O autorach
Tematy

Może Cię zainteresować

• Jak generować wartość z AI dzięki małym transformacjom w biznesie - Webster
Premium
Jak generować wartość z AI dzięki małym transformacjom w biznesie

Liderzy skutecznie wykorzystują duże modele językowe, stopniowo minimalizując ryzyko i tworząc solidne fundamenty pod przyszłe transformacje technologiczne, dzięki czemu generują realną wartość dla swoich organizacji.

Niespełna dwa lata temu generatywna sztuczna inteligencja (GenAI) trafiła na czołówki stron gazet, zachwycając swoimi niezwykłymi możliwościami: mogła prowadzić rozmowy, analizować ogromne ilości tekstu, dźwięku i obrazów, a nawet tworzyć nowe dokumenty i dzieła sztuki. To najszybsze w historii wdrożenie technologii przyciągnęło ponad 100 mln użytkowników w ciągu pierwszych dwóch miesięcy, a firmy z różnych branż rozpoczęły eksperymenty z GenAI. Jednak pomimo dwóch lat intensywnego zainteresowania ze strony kierownictwa i licznych prób wdrożeniowych nie widać wielkoskalowych transformacji biznesowych, które początkowo przewidywano. Co się stało? Czy technologia nie spełniła oczekiwań? Czy eksperci się pomylili, wzywając do gigantycznych zmian? Czy firmy były zbyt ostrożne? Odpowiedź na te pytania brzmi: i tak, i nie. Generatywna sztuczna inteligencja już teraz jest wykorzystywana w wielu firmach, ale nie – jako lokomotywa radykalnej transformacji procesów biznesowych. Liderzy biznesu znajdują sposoby, by czerpać realną wartość z dużych modeli językowych (LLM), nie modyfikując całkowicie istniejących procesów. Dążą do małych zmian (small t) stanowiących fundament pod większe przekształcenia, które dopiero nadejdą. W tym artykule pokażemy, jak robią to dzisiaj i co możesz zrobić, aby tworzyć wartość za pomocą generatywnej sztucznej inteligencji.

Premium
Polski przemysł na rozdrożu

Stoimy przed fundamentalnym wyborem: albo dynamicznie przyspieszymy wdrażanie automatyzacji i robotyzacji, co sprawi, że staniemy się aktywnym uczestnikiem czwartej rewolucji przemysłowej, albo pogodzimy się z perspektywą erozji marż pod wpływem rosnących kosztów operacyjnych i pogłębiającego się strukturalnego niedoboru wykwalifikowanej siły roboczej.

Jak alarmują prognozy Polskiego Instytutu Ekonomicznego, do 2030 r. w samej Europie może zabraknąć nawet 2,1 mln wykwalifikowanych pracowników, co czyni automatyzację nie jedną z możliwości, lecz strategiczną koniecznością. Mimo że globalnie liczba robotów przemysłowych przekroczyła już 4,2 mln jednostek, a w Europie w 2023 r. wdrożono rekordowe 92,4 tys. nowych robotów, Polska wciąż pozostaje w tyle. Nasz wskaźnik gęstości robotyzacji, wynoszący zaledwie 78 robotów na 10 tys. pracowników przemysłowych, znacząco odbiega od europejskiego lidera – Niemiec (397 robotów na 10 tys. pracowników), czy globalnego pioniera – Korei Południowej (tysiąc robotów na 10 tys. pracowników). W Scanway – firmie, która z sukcesem łączy technologie rozwijane dla sektora kosmicznego z potrzebami przemysłu – jesteśmy przekonani, że przyszłość konkurencyjności leży w inteligentnym wykorzystaniu danych, zaawansowanej automatyzacji opartej na AI oraz strategicznej gotowości do wprowadzania zmian technologicznych. Czy jednak zaawansowana wizja maszynowa napędzana przez sztuczną inteligencję może się stać katalizatorem, który pozwoli sprostać wyzwaniom i odblokować uśpiony potencjał innowacyjny polskiej gospodarki?

Premium
Zamień konflikt we współpracę

Destrukcyjny konflikt w zespole zarządzającym może zahamować rozwój organizacji. Skuteczne zarządzanie takimi napięciami wymaga od liderów świadomego odejścia od rywalizacji o władzę na rzecz współpracy oraz strategicznego, systemowego myślenia.

Konflikt w zespole zarządzającym, szczególnie wtedy gdy przeradza się w trwały, emocjonalny antagonizm, staje się realnym zagrożeniem dla efektywności całej organizacji. Studium przypadku firmy X-Style.

Jak zapewnić stabilność i elastyczność na rynku zielonej energii?

Dynamiczne zmiany na rynku energii oraz rosnące znaczenie OZE i celów ESG stawiają przed firmami nowe wyzwania. W tym kontekście Reo.pl (Grupa Enerconet) kładzie nacisk na elastyczność, dogłębną analizę potrzeb klienta i transparentność danych. O strategiach budowania długoterminowych relacji i zapewniania przewidywalności w sektorze odnawialnym opowiada Grzegorz Tomasik, prezes Reo.pl. 

Reo.pl działa na polskim rynku od 2022 roku. Jakie wyzwania napotkali państwo przy wprowadzaniu elastyczności i dostosowywaniu się do dynamicznych zmian w sektorze OZE?

Chociaż marka Reo.pl powstała na początku 2022 r., nasza grupa – Enerconet – działa na rynku energetycznym już od 2007 r. Ta wieloletnia obecność w sektorze OZE i doświadczenie w obrocie energią dają nam status dojrzałego podmiotu, wspartego silnym zespołem i dogłębną znajomością branży.

Od 2007 r. sektor OZE przeszedł znaczącą transformację, obejmującą regulacje, mechanizmy rynkowe i podejście firm do zakupu zielonej energii. Kluczową zmianą był rozwój bezpośrednich kontraktów (P2P) między wytwórcami OZE a odbiorcami końcowymi. Spółki tworzące dziś Enerconet aktywnie uczestniczyły w tej ewolucji od samego początku, analizując rynek i wypracowując skuteczne rozwiązania, co ostatecznie doprowadziło do uruchomienia platformy Reo.pl.

Premium
Gdy projekt wymyka się spod kontroli

Polskie firmy technologiczne coraz częściej realizują złożone zlecenia dla międzynarodowych gigantów. Jednak nawet najlepiej przygotowany zespół może przy takim projekcie natknąć się na nieoczekiwane przeszkody. Przykład firmy Esysco wdrażającej szyfrowanie poczty e-mail dla jednego z największych niemieckich banków pokazuje, jak szybko może runąć precyzyjnie zaplanowany harmonogram oraz jak radzić sobie z nieprzewidywalnymi wyzwaniami.

Polskie firmy technologiczne coraz częściej zdobywają międzynarodowe kontrakty i realizują projekty, które jeszcze niedawno były zarezerwowane wyłącznie dla międzynarodowych rywali. Dzięki temu zdobywają zagraniczne rynki, osiągając imponujące wyniki eksportu usług IT, który w 2023 r. przekroczył 16 mld dolarów. W ostatniej dekadzie przychody branży wzrosły niemal czterokrotnie, a wartość eksportu – aż 7,5 razy, dzięki czemu polski sektor IT stał się motorem rodzimego eksportu. Kluczowymi kierunkami ekspansji są Stany Zjednoczone, Niemcy i Wielka Brytania, a wśród najsilniejszych obszarów znajdują się fintech, cyberbezpieczeństwo, sztuczna inteligencja, gry oraz rozwój oprogramowania.

Polska wyróżnia się w regionie Europy Środkowo-Wschodniej jako największy eksporter usług IT, przewyższając Czechy czy Węgry, a pod względem jakości specjalistów IT zajmuje trzecie miejsce na świecie. Jednak do pełnego wykorzystania tego potencjału konieczne jest pokonanie barier takich jak ograniczony dostęp do kapitału na ekspansję, rosnące koszty pracy oraz niedostateczne doświadczenie w międzynarodowej sprzedaży i marketingu. To jednak nie wszystko. Przy współpracy z międzynarodowymi gigantami trzeba również pamiętać o nieznanej polskim wdrożeniowcom skali, złożoności i nieprzewidywalności towarzyszącym tak wielkim projektom. Dobrym przykładem może być nasze wdrożenie dla jednego z największych niemieckich banków, z którym podpisaliśmy kontrakt na wprowadzenie systemu zabezpieczeń e-maili dla ponad 300 tys. użytkowników rozsianych po całym świecie. Technologicznie byliśmy gotowi, ale rzeczywistość szybko zweryfikowała nasze plany.

Premium
Praktyczny poradnik kreowania wartości z dużych modeli językowych

Gdy w 2022 r. pojawiły się powszechnie dostępne duże modele językowe (LLM), ich potężna zdolność do generowania tekstu na żądanie zapowiadała rewolucję w produktywności. Jednak mimo że te zaawansowane systemy AI potrafią tworzyć płynny tekst w języku naturalnym i komputerowym, to są one dalekie od doskonałości. Mogą halucynować, wykazywać się logiczną niespójnością oraz produkować treści nieadekwatne lub szkodliwe.

Chociaż technologia ta stała się powszechnie dostępna, wielu menedżerów nadal ma trudności z rozpoznawaniem przypadków użycia LLM-ów, w których poprawa produktywności przewyższa koszty i ryzyka związane z tymi narzędziami. Potrzebne jest bardziej systematyczne podejście do wykorzystywania modeli językowych, tak aby uefektywnić procesy biznesowe, a jednocześnie kontrolować słabe strony LLM-ów. Proponuję trzy kroki ułatwiające osiągnięcie tego celu. Po pierwsze, należy rozłożyć proces na mniejsze zadania. Po drugie, trzeba ocenić, czy każde zadanie spełnia tzw. równanie kosztów GenAI, które szczegółowo wyjaśnię w tym artykule. Jeśli ten warunek zostanie spełniony, należy uruchomić projekt pilotażowy, iteracyjnie oceniać jego wyniki oraz na bieżąco wprowadzać zmiany w celu poprawy rezultatów.

Kluczowe w tym podejściu jest pełne zrozumienie, w jaki sposób mocne i słabe strony modeli językowych odpowiadają specyfice danego zadania; jakie techniki umożliwiają ich skuteczną adaptację w celu zwiększenia wydajności; oraz jak te czynniki wpływają na bilans kosztów i korzyści – a także na ocenę ryzyka i potencjalnych zysków – związanych z wykorzystaniem modeli językowych do podnoszenia efektywności realizowanych działań.

Premium
Dlaczego odważne pomysły giną w szufladach menedżerów i co z tym zrobić?

Najbardziej innowacyjne, nietypowe idee często nie zostają zrealizowane – nie dlatego, że są złe, ale dlatego, że wywołują niepewność. Co może pomóc menedżerom w podejmowaniu ryzykownych, lecz potencjalnie przełomowych decyzji? Kluczowe okazuje się świadome budowanie sieci doradczej.

Menedżerowie, którzy są świadomi znaczenia innowacji w rozwoju organizacji, często zachęcają członków swoich zespołów do dzielenia się świeżymi i kreatywnymi pomysłami. Jednak wielu pracowników skarży się, że ich najlepsze propozycje są przez zwierzchników często pomijane, odrzucane lub niewłaściwie rozumiane.

Paradoksalnie to właśnie menedżerowie mogą stanowić jedną z największych barier dla innowacji. Mocno zakorzenieni we własnych obszarach specjalizacji, często nie dostrzegają wartości nowatorskich idei – szczególnie wtedy, gdy pomysły te wyznaczają nowe ścieżki w ich dziedzinie.

Technologia to zaledwie 5% sukcesu – pozostałe 95% to ludzie

W świecie, w którym digitalizacja stała się koniecznością, sukces zależy nie od samej technologii, lecz od umiejętności jej wykorzystania. O tym, jak multidyscyplinarne podejście, kobiece przywództwo i kultura oparta na bezpieczeństwie psychologicznym pozwoliły Archicom zbudować efektywny cyfrowy ekosystem, opowiada Agata Skowrońska-Domańska, wiceprezeska zarządu firmy.

AI dla wszystkich - Mechło
Premium
AI dla wszystkich: jak ją wdrożyć w firmie?

Sztuczna inteligencja nie jest już zarezerwowana wyłącznie dla dużych korporacji i technologicznych gigantów. Dziś każdy może korzystać z narzędzi opartych na AI, a bariera kosztów znacząco się obniżyła. To jednak nie znaczy, że korzystanie z tych technologii jest proste i zrozumiałe dla wszystkich.

Powszechna dostępność sztucznej inteligencji (AI) nie rozwiązuje kluczowego problemu: braku wiedzy o tym, jak skutecznie i odpowiedzialnie z niej korzystać. Dlatego edukacja staje się nie tylko wsparciem, ale wręcz warunkiem realnego wykorzystania potencjału tej technologii. Umiejętność pracy z AI powinna być dziś traktowana jak podstawowa kompetencja, niezbędna zarówno w życiu zawodowym, jak i codziennym. Tym bardziej, że generatywna sztuczna inteligencja (GenAI) coraz śmielej wkracza na polski rynek, oferując firmom wiele korzyści: począwszy od automatyzacji drobnych zadań aż po strategiczne przedsięwzięcia.

Premium
Jak zarządzać długiem technologicznym w erze AI

Sztuczna inteligencja rewolucjonizuje świat biznesu, ale jednocześnie przyczynia się do narastania długu technologicznego w firmach. Oto cztery kluczowe wskazówki dla liderów, które pomogą świadomie zarządzać kompromisami i stworzyć przestrzeń na innowacje.

Dług technologiczny działa jak kotwica, która spowalnia wysiłki liderów biznesu zmierzające do sprawnego zarządzania organizacją. Dodatkowa praca i nagromadzone koszty wynikające z doraźnych rozwiązań, nieaktualnych aplikacji i starzejącej się infrastruktury ograniczają zdolność firm do innowacji, konkurowania i długoterminowego rozwoju.

Pewien poziom długu technologicznego jest nieunikniony. Aby zachować elastyczność, przedsiębiorstwa często wdrażają nowe technologie w ekspresowym tempie, świadome, że w przyszłości będą musiały ponieść koszty modernizacji tych systemów. Ten kompromis staje się jednak coraz trudniejszy w miarę postępującej implementacji sztucznej inteligencji. Przy rocznych kosztach przekraczających 2,41 bln dolarów w samych tylko w Stanach Zjednoczonych, dług technologiczny nie jest już wyłącznie problemem IT – to realne obciążenie biznesowe, które wymaga uwagi na najwyższym szczeblu zarządzania.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Newsletter

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!