Reklama
Dołącz do liderów przyszłości i zdobądź przewagę! Sprawdź najnowszą ofertę subskrypcji
BIZNES I TECHNOLOGIE

Kto najwięcej zyskuje dzięki generatywnej AI?

5 sierpnia 2024 8 min czytania
Kartik Hosanagar
Ramayya Krishnan
Kto najwięcej zyskuje dzięki generatywnej AI?

Analiza budowy i wdrażania dużych modeli językowych ujawnia, które podmioty mogą najwięcej zyskać oraz gdzie nowi gracze odnajdą najlepsze perspektywy.

Od publicznego uruchomienia ChatuGPT dokonano olbrzymich inwestycji w technologię z zakresu sztucznej inteligencji (AI), w szczególności głębokiego uczenia i przetwarzania języka naturalnego. Fundusze venture capital włożyły pieniądze w start- -upy generatywnej AI, a korporacje zwiększyły wydatki na tę technologię w nadziei na automatyzację swoich procesów. Ekscytacja jest uzasadniona. Wczesne badania wykazały, że generatywna AI może znacząco zwiększyć produktywność. Część tych efektów można uzyskać poprzez wspomaganie ludzkiej pracy narzędziami AI, a część – poprzez jej zastępowanie.

Nadal jednak nie wiadomo, kto przechwyci wartość z tego gwałtownie rozwijającego się rynku i co ten podział zdeterminuje. Aby odpowiedzieć na te pytania, przeanalizowaliśmy ekosystem generatywnej AI – szeroko podzielony na infrastrukturę komputerową, dane, modele bazowe, modele dostrojone oraz aplikacje – aby zidentyfikować obszary, w których można się wyróżnić. Mając świadomość, że istnieją generatywne modele AI przeznaczone do tworzenia tekstów, obrazów, dźwięków i wideo, w całej naszej dyskusji będziemy się posługiwać przykładami zaczerpniętymi z modeli tekstowych (dużych modeli językowych, czyli LLM).

Infrastruktura obliczeniowa. U podstaw ekosystemu generatywnej AI leży specjalistyczna infrastruktura obliczeniowa zasilana przez wysokowydajne jednostki przetwarzania grafiki (GPU), na których modele uczenia maszynowego są trenowane i uruchamiane. Aby zbudować nowy model lub usługę generatywnej AI, firma może rozważyć zakup GPU i powiązanego sprzętu do stworzenia infrastruktury niezbędnej do trenowania i uruchamiania dużego modelu językowego (LLM) lokalnie. Prawdopodobnie byłoby to jednak kosztowne i niepraktyczne, zważywszy na fakt, że taka infrastruktura jest powszechnie dostępna za pośrednictwem głównych dostawców chmury, takich jak Amazon Web Services (AWS), Google Cloud i Microsoft Azure.

Dane. Modele generatywnej AI są trenowane na ogromnych ilościach danych z internetu. Na przykład dane treningowe dla GPT‑3 OpenAI obejmowały Common Crawl, publicznie dostępne repozytorium danych z web crawlingu (automatyczne przeglądanie stron internetowych i zapisywanie ich zawartości – przyp. red.), a także Wikipedię, książki online i inne źródła. Wykorzystanie takich zbiorów danych jak Common Crawl oznacza, że dane z wielu stron internetowych, takich jak New York Times i Reddit, zostały przetworzone podczas procesu treningowego. Ponadto modele bazowe zawierają także dane specyficzne dla określonych domen, które są pobierane z internetu, licencjonowane od partnerów lub kupowane na rynkach danych takich jak Snowflake Marketplace. Chociaż twórcy modeli AI informują o tym, jak model został trenowany, nie udostępniają szczegółowych informacji na temat pochodzenia swoich źródeł danych treningowych. Niemniej badacze byli w stanie ujawnić różne źródła danych używane do trenowania modeli AI, wprowadzając specyficzne komendy do modelu (prompt injection attacks) tak, by ten ujawnił, na podstawie jakich źródeł był uczony.

Modele bazowe. To sieci neuronowe szeroko trenowane na ogromnych zbiorach danych, bez optymalizacji pod kątem konkretnych dziedzin czy zadań końcowych, takich jak sporządzanie umów prawnych czy odpowiadanie na techniczne pytania dotyczące produktu. Modele językowe bazowe obejmują modele z kodem zamkniętym, takie jak GPT‑4 od OpenAI i Gemini od Google’a, a także modele otwarte, takie jak Llama‑2 od Meta i Falcon 40B od Instytutu Innowacji Technologicznych w Zjednoczonych Emiratach Arabskich. Wszystkie te modele opierają się na architekturze transformatora (rodzaj modelu uczenia maszynowego, który jest szczególnie skuteczny w przetwarzaniu języka naturalnego – przyp. red.), opisanej w przełomowej pracy Ashisha Vaswaniego i jego współpracowników w 2017 roku pt. Attention Is All You Need. Choć można próbować wejść na rynek generatywnej AI, budując nowy model bazowy, dane, zasoby obliczeniowe i ekspertyza techniczna potrzebne do stworzenia i trenowania wysoko wydajnych modeli stanowią znaczną barierę, co skutkuje ograniczoną liczbą wysokiej jakości dużych modeli bazowych.

RAG‑i i modele dostrojone. Modele bazowe są wszechstronne i radzą sobie dobrze z wieloma różnymi zadaniami językowymi, ich wydajność jednak może być ograniczona w przypadku zadań wymagających bardzo szczegółowej wiedzy lub danych specyficznych dla konkretnej dziedziny. Aby uzyskać dobre wyniki w zadaniach dotyczących skomplikowanych kwestii, konieczne może być wykorzystanie bardziej szczegółowych danych dotyczących wybranej dziedziny. Do projektowania usługi, która pozwala wykorzystywać duży model językowy (LLM) do określonego celu, na przykład wspierania użytkowników w rozwiązywaniu problemów technicznych z produktem, można podejść na dwa sposoby.

Pierwsze podejście polega na stworzeniu usługi, która pobiera fragmenty informacji istotne dla użytkownika i dodaje je do instrukcji (prompt) wysyłanej do modelu bazowego. W przypadku pomocy użytkownikom w rozwiązywaniu problemów technicznych oznaczałoby to napisanie kodu, który wyodrębnia odpowiednie, czyli najbardziej związane z pytaniem użytkownika, fragmenty instrukcji obsługi produktu, po czym instruuje LLM, aby na tej podstawie odpowiedział na pytanie użytkownika. Takie podejście nazywa się generowaniem wspomaganym przez pobieranie (retrieval‑augmented generation, RAG). Co prawda modele bazowe mają ograniczenia dotyczące rozmiaru promptów, które są w stanie przyjąć, jednak mogą być one naprawdę duże i liczyć około 100 tysięcy słów. Decydując się na to podejście, trzeba liczyć się z kosztami, które obejmują koszty API modelu bazowego, rosnące wraz z rozmiarem prompta wejściowego i rozmiarem odpowiedzi generowanej przez LLM. W rezultacie im więcej informacji z instrukcji obsługi jest wysyłanych do LLM, tym wyższy jest koszt jego używania.

Alternatywnym podejściem do RAG‑ów, które jest droższe ze względu na wyższe początkowe koszty związane z obliczeniami, jest dostrojenie modelu. W przeciwieństwie do dostarczania fragmentów informacji z instrukcji obsługi (czyli kontekstu) za pomocą promptów, podejście to polega na dalszym trenowaniu sieci neuronowej modelu bazowego za pomocą danych specyficznych dla wybranej dziedziny. ChatGPT jest zaprojektowany do przyjmowania instrukcji i prowadzenia konwersacji z ludźmi. Dostrajanie obejmuje ponowne trenowanie wstępnie wytrenowanego modelu bazowego, takiego jak Llama czy GPT‑4, na zbiorze danych specyficznym dla konkretnej domeny.

Chociaż podejście RAG może wiązać się z wysokimi kosztami API, ponieważ modelowi trzeba dostarczyć długie prompty, jest łatwiejsze do wdrożenia niż podejście polegające na dostrajaniu. Do tego, decydując się na RAG, nie trzeba się liczyć z kosztami obliczeń związanych z ponownym trenowaniem sieci neuronowej na nowym zbiorze danych. W rezultacie podejście RAG ma niższe koszty początkowe, ale wyższe opłaty zmienne wynikające z przesyłania informacji do modelu bazowego za każdym razem, gdy końcowy użytkownik zadaje pytanie. Z kolei podejście z dostrajaniem, choć droższe na początku, ma potencjał do uzyskania lepszych wyników i po zakończeniu jest dostępne do przyszłego użytku bez potrzeby dostarczania kontekstu dla każdego zapytania, jak ma to miejsce w przypadku RAG. Firmy posiadające wiedzę techniczną mogą uznać, że warto zainwestować w budowę warstwy narzędziowej generatywnej AI, która umożliwia stosowanie metod dostrajania i RAG, zarówno dla własnych produktów, jak i w ramach usług świadczonych na rzecz innych firm.

Aplikacje LLM. Ostatnia warstwa ekosystemu generatywnej AI składa się z aplikacji, które można zbudować na podstawie modelu bazowego lub dostrojonego, aby obsługiwać konkretne przypadki użycia. Start‑upy stworzyły aplikacje do sporządzania projektów umów prawnych (Evisort), streszczania książek i scenariuszy filmowych (Jumpcut) czy nawet odpowiadania na pytania związane z rozwiązywaniem problemów technicznych (Alltius). Te aplikacje są wyceniane jak tradycyjne oprogramowanie w modelu SaaS (z miesięcznymi opłatami za użytkowanie), a ich koszty marginalne są głównie związane z opłatami za hosting w chmurze i opłatami API od modeli bazowych.

W ciągu ostatnich kilku miesięcy giganci technologiczni i fundusze venture capital poczynili ogromne inwestycje w każdą warstwę tego ekosystemu. Uruchomiono dziesiątki nowych modeli bazowych. Podobnie firmy stworzyły modele specyficzne dla zadań, dostrojone na podstawie własnych danych, mając nadzieję, że zapewnią im one przewagę nad konkurencją. Tysiące start‑upów budują aplikacje na bazie różnych modeli bazowych lub dostrojonych.

Dowiedz się z artykułu, jakie lekcje można wyciągnąć z chmury.

O autorach
Tematy

Może Cię zainteresować

Multimedia
Myśli czy tylko udaje? O tym, czego AI długo jeszcze nie opanuje

Choć dzisiejsze generatywne modele językowe świetnie symulują wzorce językowe, to daleko im do prawdziwej inteligencji. Nie mają świadomości ani zdolności do adaptacji. Takie wnioski płyną z rozmowy Iwo Zmyślonego z Pawłem Szczęsnym z Neurofusion Lab, który podkreśla, że nadużywanie antropomorfizujących określeń („AI myśli”, „uczy się”) wynika głównie z marketingu i prowadzi do fałszywych oczekiwań. Krytykuje przy okazji pojęcie „halucynacji AI”, wskazując, że błędy modeli są nieuniknione ze względu na ich budowę. Ostatecznie AI może przynieść znaczące korzyści biznesowi, ale tylko gdy rozumiemy jej rzeczywiste możliwości i ograniczenia.

Grafika promocyjna w czerwonej kolorystyce prezentująca książkę dr n. med. Anny Słowikowskiej pt. „Serce w dobrym stylu. Jak zatroszczyć się o swoje zdrowie”. Po lewej stronie znajduje się biały napis: „MIT SMRP poleca książkę dr Anny Słowikowskiej”. Po prawej stronie okładka książki z dużym sercem z wykresu EKG na tle, tytułem i nazwiskiem autorki. „Serce w dobrym stylu. Jak zatroszczyć się o swoje zdrowie” – recenzja

Niejeden lider biznesu przekonał się zbyt późno, że największe zagrożenie dla jego imperium czaiło się nie na rynku, lecz we własnej piersi. W salach posiedzeń zarządów rzadko dyskutuje się o stanie tętnic prezesa – a przecież mogą one zaważyć na losach firmy równie mocno, co wyniki finansowe. Od lat korporacyjna kultura hołubi samopoświęcenie i żelazną wytrzymałość, przymykając oko na tlący się pod garniturem kryzys zdrowotny. Paradoksalnie ci sami menedżerowie, którzy szczycą się troską o swoje zespoły i deklarują dbałość o work-life balance, często ignorują własne symptomy i potrzeby ciała. Serce w dobrym stylu, książka dr n. med. Anny Słowikowskiej i Tomasza Słowikowskiego, stawia prowokacyjne pytanie: czy potrafisz zarządzać swoim zdrowiem równie świadomie, jak zarządzasz firmą? Autorzy nie mają wątpliwości, że zdrowie – a zwłaszcza serce – lidera to nie fanaberia, lecz strategiczny priorytet każdego człowieka sukcesu i każdej organizacji.

Pomoc AI przy podejmowaniu decyzji
Jak AI może pomóc podejmować lepsze decyzje pod presją?

Dane firmy Oracle wskazują, że aż 85% menedżerów doświadcza stresu decyzyjnego, a 75% z nich deklaruje dziesięciokrotny wzrost liczby podejmowanych decyzji w ciągu ostatnich trzech lat. Wsparcie ze strony sztucznej inteligencji wydaje się więc atrakcyjną alternatywą przy ciągłej pracy pod presją. Prawdziwy sukces w zarządzaniu zależy jednak od świadomego połączenia potencjału AI z ludzkimi możliwościami, takimi jak intuicja, doświadczenie i umiejętności interpersonalne.

Co potrafi AI, działając pod presją?

Potencjał technologiczny wzrasta z roku na rok. Sztuczna inteligencja, która jeszcze niedawno stanowiła bardziej symbol rozwoju niż realne wsparcie w codziennych obowiązkach, stała się obecnie powszechnym narzędziem pracy. W jakich obszarach wykorzystuje się ją najczęściej?

  • Monitoring i predykcja. Firmy takie jak Unilever wykorzystują sztuczną inteligencję do monitorowania łańcuchów dostaw w czasie rzeczywistym. Dzięki algorytmom AI możliwe jest wychwycenie anomalii, zanim doprowadzą one do poważnych konsekwencji biznesowych. Oprócz sfery biznesowej, inteligentne algorytmy są wykorzystywane w ten sposób na przykład do wykrywania na podstawie zdjęć satelitarnych powstających zagrożeń ekologicznych, które mogłyby zakłócić łańcuchy dostaw.

Horyzontalna ilustracja w realistycznym stylu przedstawia zmęczonego lidera siedzącego samotnie przy biurku w półmroku. Wokół niego porozrzucane są pomięte notatki, pusta filiżanka po kawie i otwarty laptop emitujący chłodne, niebieskie światło. Mężczyzna opiera głowę na dłoni, z pochyloną sylwetką i oznakami wyczerpania. Całość utrzymana jest w stonowanej kolorystyce, symbolizując przeciążenie pracą i emocjonalne wypalenie. Ilustracja odwołuje się do problematyki, jaką porusza psychologia pracy w kontekście przywództwa. Jak liderzy radzą sobie z przepracowaniem

Uważność nie wystarczy, gdy toniemy w nadmiarze obowiązków. Poznaj zaskakujące strategie zapracowanych liderów, które naprawdę działają.

W ostatnich latach wiele nagłówków sugerowało, że wszyscy jesteśmy już nieco wypaleni zawodowo. Od pasywno-agresywnego „quiet quitting” po tajemniczo brzmiącą „ghost work” – narracja głosi, że ludzie zasypiają za kierownicą, a w najlepszym razie przysypiają co kilka kilometrów.

Ale co, jeśli ta diagnoza nie jest do końca trafna – przynajmniej w odniesieniu do sporej grupy z nas?

Co, jeśli istnieje znacząca liczba osób, które czują się przeciążone pracą, a mimo to pozostają zmotywowane i skuteczne? W dzisiejszej rzeczywistości, gdzie zmiana warunków zatrudnienia często wydaje się poza naszym zasięgiem, warto przyjrzeć się tym pracownikom i zastanowić, czego możemy się od nich nauczyć, by nadal działać efektywnie.

dobrostan Zadbaj o siebie i swój zespół. Jak budować dobrostan w niestabilnych czasach?

Współczesny świat biznesu to arena ciągłych zmian, która wystawia na próbę odporność psychiczną pracowników i liderów. Jak w obliczu narastającej presji i niepewności budować organizacje, gdzie dobrostan jest filarem sukcesu? Zapraszamy do lektury artykułu, w którym Agata Swornowska-Kurto, bazując na raporcie „Sukces na wagę zdrowia – o kondycji psychicznej i przyszłości pracy”, odkrywa kluczowe strategie dla liderów. Dowiedz się, jak przeciwdziałać wypaleniu, budować autentyczne wsparcie i tworzyć środowisko, które inspiruje, zamiast przytłaczać.

nękanie oddolne Co zrobić, gdy podwładni cię sabotują?
Jak reagować, gdy wiarygodność lidera jest podkopywana – otwarcie lub za kulisami – a atmosfera w zespole staje się coraz bardziej toksyczna? Nękanie w miejscu pracy nie zawsze płynie z góry na dół Contrapower harassment to rzadko poruszany, lecz istotny temat związany z nękaniem w pracy. W przeciwieństwie do tradycyjnego postrzegania tego zjawiska, dotyczy ono […]
EOD Jak automatyzacja obiegu dokumentów wspiera zarządzanie czasem pracy

W dzisiejszej rzeczywistości biznesowej niezbędne jest sięganie po innowacyjne rozwiązania technologiczne. Taką decyzję podjęła firma Vetrex, wdrażając w swoich strukturach elektroniczny obieg dokumentów Vario firmy Docusoft, członka grupy kapitałowej Arcus. O efektach tego działania opowiedział Przemysław Szkatuła – dyrektor działu IT w firmie Vetrex.

Jakie cele biznesowe przyświecały firmie przy podjęciu decyzji o wdrożeniu systemu elektronicznego obiegu dokumentów?

Przemysław Szkatuła: Przede wszystkim chodziło o usprawnienie procesów wewnętrznych. Wcześniej obieg dokumentów był głównie manualny, co generowało wiele problemów kumulujących się pod koniec każdego miesiąca. Dzięki wdrożeniu systemu Vario wszystko odbywa się elektronicznie i wiemy dokładnie, na którym etapie procesu znajduje się faktura. To usprawnia przepływ informacji nie tylko w działach finansowych, lecz także między zwykłymi użytkownikami systemu. Dzięki wprowadzeniu powiadomień mailowych każdy użytkownik otrzymuje niezwłocznie informację o nowej aktywności, a kierownicy działów są świadomi, jakie koszty wystąpiły.

quiet quitting Nie pozwól by quiet quitting zrujnowało twoją karierę

Quiet quitting to nie cicha rewolucja, lecz ryzykowna strategia wycofania się z aktywnego życia zawodowego. W świecie przeciążonych pracowników i liderów często niedostrzegających rzeczywistych wyzwań swoich zespołów, bierna rezygnacja z zaangażowania może być kusząca, ale długofalowo – szkodzi wszystkim.

Case study
Premium
Czy planowanie strategiczne ma jeszcze sens?

Krakowski producent słodyczy Zafiro Sweets był przez lata doceniany w branży i wśród pracowników za wieloletni, stabilny wzrost poparty wysoką jakością produktów. Turbulencje rynkowe, napędzane dynamiką mediów społecznościowych i zmieniającymi się oczekiwaniami klientów, podważyły jednak jego dotychczasowy model działania, oparty na planowaniu strategicznym. Firma szuka sposobu, który pozwoli jej się zaadaptować do szybkich zmian zachodzących w jej otoczeniu. Marta Wilczyńska, CEO Zafiro Sweets, z niedowierzaniem patrzyła na slajd, który dostała od działu sprzedaży. Siedziała w restauracji w warszawskim Koneserze, gdzie wraz z Tomaszem Lemańskim, dyrektorem operacyjnym, oraz Justyną Sawicką, dyrektorką marketingu, uczestniczyli w Festiwalu Słodkości – jednej z branżowych imprez, które sponsorowali.

Premium
Zalecenia prof. Kazimierza suwalskiego dla młodych i doświadczonych liderów

Doświadczenie prof. Kazimierza Suwalskiego, chirurga i lidera, przekłada się na uniwersalne zasady skutecznego przywództwa. Poniższe zestawienie to zbiór praktycznych wskazówek, które wspierają rozwój zarówno młodych, jak i doświadczonych liderów – od budowania autorytetu i zarządzania zespołem po radzenie sobie z kryzysami i sukcesję przywództwa.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Newsletter

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!