Reklama
OFERTA SPECJALNA na NAJWYŻSZY pakiet subskrypcji! Wersję Platinum - OFERTA LIMITOWANA
AI SZTUCZNA INTELIGENCJA

Kto najwięcej zyskuje dzięki generatywnej AI?

5 sierpnia 2024 8 min czytania
Kartik Hosanagar
Ramayya Krishnan
Kto najwięcej zyskuje dzięki generatywnej AI?

Analiza budowy i wdrażania dużych modeli językowych ujawnia, które podmioty mogą najwięcej zyskać oraz gdzie nowi gracze odnajdą najlepsze perspektywy.

Od publicznego uruchomienia ChatuGPT dokonano olbrzymich inwestycji w technologię z zakresu sztucznej inteligencji (AI), w szczególności głębokiego uczenia i przetwarzania języka naturalnego. Fundusze venture capital włożyły pieniądze w start- -upy generatywnej AI, a korporacje zwiększyły wydatki na tę technologię w nadziei na automatyzację swoich procesów. Ekscytacja jest uzasadniona. Wczesne badania wykazały, że generatywna AI może znacząco zwiększyć produktywność. Część tych efektów można uzyskać poprzez wspomaganie ludzkiej pracy narzędziami AI, a część – poprzez jej zastępowanie.

Nadal jednak nie wiadomo, kto przechwyci wartość z tego gwałtownie rozwijającego się rynku i co ten podział zdeterminuje. Aby odpowiedzieć na te pytania, przeanalizowaliśmy ekosystem generatywnej AI – szeroko podzielony na infrastrukturę komputerową, dane, modele bazowe, modele dostrojone oraz aplikacje – aby zidentyfikować obszary, w których można się wyróżnić. Mając świadomość, że istnieją generatywne modele AI przeznaczone do tworzenia tekstów, obrazów, dźwięków i wideo, w całej naszej dyskusji będziemy się posługiwać przykładami zaczerpniętymi z modeli tekstowych (dużych modeli językowych, czyli LLM).

Infrastruktura obliczeniowa. U podstaw ekosystemu generatywnej AI leży specjalistyczna infrastruktura obliczeniowa zasilana przez wysokowydajne jednostki przetwarzania grafiki (GPU), na których modele uczenia maszynowego są trenowane i uruchamiane. Aby zbudować nowy model lub usługę generatywnej AI, firma może rozważyć zakup GPU i powiązanego sprzętu do stworzenia infrastruktury niezbędnej do trenowania i uruchamiania dużego modelu językowego (LLM) lokalnie. Prawdopodobnie byłoby to jednak kosztowne i niepraktyczne, zważywszy na fakt, że taka infrastruktura jest powszechnie dostępna za pośrednictwem głównych dostawców chmury, takich jak Amazon Web Services (AWS), Google Cloud i Microsoft Azure.

Dane. Modele generatywnej AI są trenowane na ogromnych ilościach danych z internetu. Na przykład dane treningowe dla GPT‑3 OpenAI obejmowały Common Crawl, publicznie dostępne repozytorium danych z web crawlingu (automatyczne przeglądanie stron internetowych i zapisywanie ich zawartości – przyp. red.), a także Wikipedię, książki online i inne źródła. Wykorzystanie takich zbiorów danych jak Common Crawl oznacza, że dane z wielu stron internetowych, takich jak New York Times i Reddit, zostały przetworzone podczas procesu treningowego. Ponadto modele bazowe zawierają także dane specyficzne dla określonych domen, które są pobierane z internetu, licencjonowane od partnerów lub kupowane na rynkach danych takich jak Snowflake Marketplace. Chociaż twórcy modeli AI informują o tym, jak model został trenowany, nie udostępniają szczegółowych informacji na temat pochodzenia swoich źródeł danych treningowych. Niemniej badacze byli w stanie ujawnić różne źródła danych używane do trenowania modeli AI, wprowadzając specyficzne komendy do modelu (prompt injection attacks) tak, by ten ujawnił, na podstawie jakich źródeł był uczony.

Modele bazowe. To sieci neuronowe szeroko trenowane na ogromnych zbiorach danych, bez optymalizacji pod kątem konkretnych dziedzin czy zadań końcowych, takich jak sporządzanie umów prawnych czy odpowiadanie na techniczne pytania dotyczące produktu. Modele językowe bazowe obejmują modele z kodem zamkniętym, takie jak GPT‑4 od OpenAI i Gemini od Google’a, a także modele otwarte, takie jak Llama‑2 od Meta i Falcon 40B od Instytutu Innowacji Technologicznych w Zjednoczonych Emiratach Arabskich. Wszystkie te modele opierają się na architekturze transformatora (rodzaj modelu uczenia maszynowego, który jest szczególnie skuteczny w przetwarzaniu języka naturalnego – przyp. red.), opisanej w przełomowej pracy Ashisha Vaswaniego i jego współpracowników w 2017 roku pt. Attention Is All You Need. Choć można próbować wejść na rynek generatywnej AI, budując nowy model bazowy, dane, zasoby obliczeniowe i ekspertyza techniczna potrzebne do stworzenia i trenowania wysoko wydajnych modeli stanowią znaczną barierę, co skutkuje ograniczoną liczbą wysokiej jakości dużych modeli bazowych.

RAG‑i i modele dostrojone. Modele bazowe są wszechstronne i radzą sobie dobrze z wieloma różnymi zadaniami językowymi, ich wydajność jednak może być ograniczona w przypadku zadań wymagających bardzo szczegółowej wiedzy lub danych specyficznych dla konkretnej dziedziny. Aby uzyskać dobre wyniki w zadaniach dotyczących skomplikowanych kwestii, konieczne może być wykorzystanie bardziej szczegółowych danych dotyczących wybranej dziedziny. Do projektowania usługi, która pozwala wykorzystywać duży model językowy (LLM) do określonego celu, na przykład wspierania użytkowników w rozwiązywaniu problemów technicznych z produktem, można podejść na dwa sposoby.

Pierwsze podejście polega na stworzeniu usługi, która pobiera fragmenty informacji istotne dla użytkownika i dodaje je do instrukcji (prompt) wysyłanej do modelu bazowego. W przypadku pomocy użytkownikom w rozwiązywaniu problemów technicznych oznaczałoby to napisanie kodu, który wyodrębnia odpowiednie, czyli najbardziej związane z pytaniem użytkownika, fragmenty instrukcji obsługi produktu, po czym instruuje LLM, aby na tej podstawie odpowiedział na pytanie użytkownika. Takie podejście nazywa się generowaniem wspomaganym przez pobieranie (retrieval‑augmented generation, RAG). Co prawda modele bazowe mają ograniczenia dotyczące rozmiaru promptów, które są w stanie przyjąć, jednak mogą być one naprawdę duże i liczyć około 100 tysięcy słów. Decydując się na to podejście, trzeba liczyć się z kosztami, które obejmują koszty API modelu bazowego, rosnące wraz z rozmiarem prompta wejściowego i rozmiarem odpowiedzi generowanej przez LLM. W rezultacie im więcej informacji z instrukcji obsługi jest wysyłanych do LLM, tym wyższy jest koszt jego używania.

Alternatywnym podejściem do RAG‑ów, które jest droższe ze względu na wyższe początkowe koszty związane z obliczeniami, jest dostrojenie modelu. W przeciwieństwie do dostarczania fragmentów informacji z instrukcji obsługi (czyli kontekstu) za pomocą promptów, podejście to polega na dalszym trenowaniu sieci neuronowej modelu bazowego za pomocą danych specyficznych dla wybranej dziedziny. ChatGPT jest zaprojektowany do przyjmowania instrukcji i prowadzenia konwersacji z ludźmi. Dostrajanie obejmuje ponowne trenowanie wstępnie wytrenowanego modelu bazowego, takiego jak Llama czy GPT‑4, na zbiorze danych specyficznym dla konkretnej domeny.

Chociaż podejście RAG może wiązać się z wysokimi kosztami API, ponieważ modelowi trzeba dostarczyć długie prompty, jest łatwiejsze do wdrożenia niż podejście polegające na dostrajaniu. Do tego, decydując się na RAG, nie trzeba się liczyć z kosztami obliczeń związanych z ponownym trenowaniem sieci neuronowej na nowym zbiorze danych. W rezultacie podejście RAG ma niższe koszty początkowe, ale wyższe opłaty zmienne wynikające z przesyłania informacji do modelu bazowego za każdym razem, gdy końcowy użytkownik zadaje pytanie. Z kolei podejście z dostrajaniem, choć droższe na początku, ma potencjał do uzyskania lepszych wyników i po zakończeniu jest dostępne do przyszłego użytku bez potrzeby dostarczania kontekstu dla każdego zapytania, jak ma to miejsce w przypadku RAG. Firmy posiadające wiedzę techniczną mogą uznać, że warto zainwestować w budowę warstwy narzędziowej generatywnej AI, która umożliwia stosowanie metod dostrajania i RAG, zarówno dla własnych produktów, jak i w ramach usług świadczonych na rzecz innych firm.

Aplikacje LLM. Ostatnia warstwa ekosystemu generatywnej AI składa się z aplikacji, które można zbudować na podstawie modelu bazowego lub dostrojonego, aby obsługiwać konkretne przypadki użycia. Start‑upy stworzyły aplikacje do sporządzania projektów umów prawnych (Evisort), streszczania książek i scenariuszy filmowych (Jumpcut) czy nawet odpowiadania na pytania związane z rozwiązywaniem problemów technicznych (Alltius). Te aplikacje są wyceniane jak tradycyjne oprogramowanie w modelu SaaS (z miesięcznymi opłatami za użytkowanie), a ich koszty marginalne są głównie związane z opłatami za hosting w chmurze i opłatami API od modeli bazowych.

W ciągu ostatnich kilku miesięcy giganci technologiczni i fundusze venture capital poczynili ogromne inwestycje w każdą warstwę tego ekosystemu. Uruchomiono dziesiątki nowych modeli bazowych. Podobnie firmy stworzyły modele specyficzne dla zadań, dostrojone na podstawie własnych danych, mając nadzieję, że zapewnią im one przewagę nad konkurencją. Tysiące start‑upów budują aplikacje na bazie różnych modeli bazowych lub dostrojonych.

Dowiedz się z artykułu, jakie lekcje można wyciągnąć z chmury.

O autorach
Tematy

Może Cię zainteresować

Trendy HR 2026: Definiowanie miejsca pracy na nowo

Masowa adopcja AI, spłaszczanie struktur i rewolucja w EVP to rzeczywistość, przed którą nie ma ucieczki. Podczas gdy większość pracowników marzy o pracy zdalnej, zarządy planują odważne redukcje stanowisk wspierane przez technologię. Dowiedz się, dlaczego tradycyjne drabinki kariery odchodzą do lamusa, jak spersonalizowana nauka staje się najsilniejszym magnesem na talenty i dlaczego to właśnie dyrektorzy HR przejmują dziś stery w projektowaniu strategii, która pozwoli firmom przetrwać nadchodzącą dekadę.

Wykorzystanie skarg klientów do innowacji Zamień skargi klientów w strategię innowacji

Tradycyjne postrzeganie skarg klientów jako zakłóceń do szybkiego załatwienia przestaje być skuteczne w nowoczesnym zarządzaniu doświadczeniem klienta. Szwajcarski Szpital Uniwersytecki w Vaud (CHUV) pokazuje, że systematyczne gromadzenie i analiza reklamacji może stać się strategicznym narzędziem innowacji i podnoszenia jakości usług. Dzięki współpracy z renomowaną szkołą hotelarską EHL, pracownicy służby zdrowia zdobywają kompetencje z zakresu projektowania usług i zarządzania relacjami z pacjentem, uzupełniając tradycyjne szkolenia kliniczne.

Artykuł przedstawia trzy konkretne kroki: traktowanie skarg jako wartościowych danych, angażowanie klientów we wspólne opracowywanie rozwiązań oraz adaptację najlepszych praktyk z branż usługowych. To holistyczne podejście pozwala nie tylko poprawić jakość opieki i doświadczenia pacjenta, ale także przeciwdziałać wypaleniu zawodowemu personelu i budować trwałą przewagę konkurencyjną.

przywództwo bez hierarchii w korporacji Jak Samsung Electronics Polska rzuca wyzwanie hierarchii

W obliczu rosnącej złożoności biznesu hierarchiczne modele zarządzania coraz częściej zawodzą. Artykuł analizuje, jak Samsung Electronics Polska wdraża koncepcję „Leader to Leader”, odwracając tradycyjną piramidę decyzyjną. Na przykładzie tej transformacji pokazujemy, dlaczego bezpieczeństwo psychologiczne, decentralizacja decyzji i świadome oddanie kontroli mogą stać się źródłem przewagi konkurencyjnej nawet w najbardziej sformalizowanych organizacjach.

Wideokonferencje i nowoczesne biuro: jak technologia i przestrzeń tworzą nowy standard współpracy. CZĘŚĆ II

Jak wybrać kabinę akustyczną do pracy hybrydowej, by spotkania online były naprawdę efektywne? W drugiej części cyklu pokazujemy checklistę decyzji, typowe błędy oraz technologie Jabra, które zapewniają widoczność i świetny dźwięk.

Wideokonferencje i nowoczesne biuro: jak technologia i przestrzeń tworzą nowy standard współpracy. CZĘŚĆ I

Wideokonferencje nie działają „same z siebie”. O jakości spotkań hybrydowych decyduje widoczność, dźwięk i przestrzeń, która wspiera koncentrację. Sprawdź, jak technologia Jabra i kabiny akustyczne Bene tworzą nowy standard współpracy.

Niektórzy wcale nie ciepią na wypalenie. Są wyczerpani etycznie

Wypalenie zawodowe jest powszechnym zjawiskiem wśród osób pracujących pod nieustanną presją. Ale nie zawsze jest to właściwa diagnoza. Gdy ludzie są wyczerpani pracą, która wydaje się pusta lub niespójna z ich wartościami, problemem nie jest brak wytrzymałości. Problemem jest brak sensu. Dopóki organizacje nie będą gotowe skonfrontować się z tym rozróżnieniem, będą nadal leczyć niewłaściwy problem i dziwić się, że nic się nie zmienia.

 

Poradnik CEO: Jak radzić sobie z trudnymi członkami rad nadzorczych

Prezesi i dyrektorzy zarządzający (CEO) nie unikną kontaktu z trudnymi osobowościami w radach nadzorczych, ale mogą nauczyć się mitygować wyzwania, jakie te postaci stwarzają. Kluczem do sukcesu jest odróżnienie problemów personalnych od wadliwych procesów, współpraca z kluczowymi sojusznikami oraz konsekwentne wzmacnianie relacji w celu budowania wartości biznesowej.

AI w polskiej medycynie: lepsza diagnostyka vs. ryzyko utraty kompetencji

Polskie szpitale i uczelnie medyczne coraz śmielej korzystają z możliwości sztucznej inteligencji – od precyzyjnej diagnostyki onkologicznej w Tychach, po zaawansowane systemy wizyjne rozwijane na AGH. Algorytmy stają się „drugim okiem” lekarza, istotnie zwiększając wykrywalność zmian nowotworowych. Jednak za technologiczną euforią kryje się ryzyko nazywane „lenistwem poznawczym” – lekarze wspierani przez AI tracą biegłość w samodzielnej diagnozie.

Puste przeprosiny w pracy, czyli więcej szkody niż pożytku

Większość menedżerów uważa, że szczere wyznanie winy zamyka temat błędu. Tymczasem w środowisku zawodowym puste deklaracje skruchy działają gorzej niż ich brak – budują kulturę nieufności i wypalają zespoły. Jeśli po Twoim „przepraszam” następuje „ale”, właśnie wysłałeś sygnał, że nie zamierzasz nic zmieniać.

Dlaczego 95% wdrożeń AI kończy się porażką? I jak znaleźć 5% tych udanych?

Sztuczna inteligencja nie jest dziś wyzwaniem technologicznym, lecz testem dojrzałości organizacyjnej. W rozmowie z Tomaszem Kostrząbem AI jawi się nie jako cel sam w sobie, ale jako narzędzie głębokiej transformacji procesów, ról i sposobu myślenia liderów. Tekst pokazuje, dlaczego większość wdrożeń AI kończy się porażką, gdzie firmy popełniają kluczowe błędy oraz jak połączyć technologię z ludźmi i biznesem, by osiągnąć realną wartość.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!