Dołącz do grona liderów, którzy chcą więcej
AI SZTUCZNA INTELIGENCJA

Metoda prób i błędów: pośpiech i ryzyko związane z ChatemGPT

11 kwietnia 2023 3 min czytania
Korn Ferry
Metoda prób i błędów: pośpiech i ryzyko związane z ChatemGPT

Streszczenie: Popularność ChatGPT skłoniła zarówno duże firmy technologiczne, jak i start-upy do tworzenia konkurencyjnych algorytmów. Taka pośpieszna rywalizacja może prowadzić do wprowadzania na rynek niedopracowanych produktów, co utrudnia efektywne wykorzystanie sztucznej inteligencji w biznesie. Model minimalnie działającego produktu (MVP), polegający na wypuszczaniu niepełnych wersji produktów z zamiarem ich udoskonalania na podstawie opinii użytkowników, budzi obawy ekspertów. Uważają oni, że potencjalne ryzyko związane z używaniem nowych narzędzi AI, które potrafią generować treści na poziomie zbliżonym do ludzkiego, jest zbyt wysokie, aby udostępniać je bez odpowiedniego wsparcia. Chris Cantarella, globalny lider praktyk oprogramowania w Korn Ferry, zauważa, że firmy różnych branż już teraz opierają się na niedoskonałych wynikach tych narzędzi, podejmując kluczowe decyzje dotyczące zatrudnienia, marketingu i operacji. mitsmr.pl

Pokaż więcej

Popularność ChatGPT zachęciła zarówno duże firmy technologiczne, jak i start‑upy do zaangażowania się w tworzenie konkurencyjnych algorytmów. Konsekwencją tej przedwczesnej rywalizacji może być zalew niedoskonałych produktów, który tylko utrudni wykorzystanie rozwiązań AI w biznesie.

W ciągu ostatnich kilku miesięcy miliony ludzi zaczęły intensywnie korzystać z algorytmu ChatGPT, mimo że technologia, jak przyznają sami jej twórcy, została wydana w wersji beta. Od tego czasu różne firmy technologiczne, zarówno duże, jak i małe, wypuściły na rynek wiele intrygujących produktów zwierających rozwiązania sztucznej inteligencji, które są co najmniej niedoskonałe.

Niestety, tak wygląda dziś praktyka w dziedzinie technologii: wypuszczanie wadliwych produktów zaprojektowanych już na starcie do poprawy w miarę ich użytkowania przez konsumentów. To podejście, znane jako model MVP (minimum viable product), niepokoi niektórych ekspertów. Twierdzą oni, że potencjalne ryzyko związane z wykorzystaniem nowego narzędzia AI, które może tworzyć treści prawie tak dobrze, jak człowiek, jest zbyt duże, aby wystawić na ich działanie użytkowników, nie dając im jednocześnie żadnego wsparcia. – To narzędzie jest po prostu zbyt potężne – ocenia Chat GPT Chris Cantarella, globalny lider sektora praktyk oprogramowania w Korn Ferry. Już teraz firmy wielu branż polegają na jego niedoskonałych wynikach, podejmując kluczowe decyzje dotyczące zatrudnienia, marketingu i działań operacyjnych.

Niestety, tak wygląda dziś praktyka w dziedzinie technologii: wypuszczanie wadliwych produktów zaprojektowanych już na starcie do poprawy w miarę ich użytkowania przez konsumentów.

Model MVP nie jest nowością. Od lat firmy testują produkty przed wprowadzeniem ich na rynek, zazwyczaj za zamkniętymi drzwiami, w grupach fokusowych lub w testach beta. Pod koniec lat 90. XX wieku firmy technologiczne zaczęły propagować ideę, że w przypadku oprogramowania lepsze jest wrogiem dobrego, dając tym samym przyzwolenie na wypuszczanie produktów na rynek i naprawianie problemów w późniejszym czasie. Jak zauważa Cantarella, firmy technologiczne na przełomie tysiącleci ryzykowały utratę finansowania przez czekanie na wprowadzenie produktów tradycyjną metodą kaskadową, gdzie wymagania odbiorców definiowano na starcie projektu i bazowano na tym do jego końca. Dlatego podejście minimum viable product było lepsze niż brak produktu w ogóle. –To był sposób na wywołanie zainteresowania produktem i angażowało klientów – mówi Cantarella.

Jest to nadal prawda, ale teraz, w miejsce studium wykonalności produktu poprzez jego testowanie w małej grupie ekspertów, firmy udostępniają nowe narzędzia AI coraz większej rzeszy użytkowników. Według ostatnich danych z ChatGPT codziennie korzysta ponad 25 milionów osób, a kolejne miliony testują różne inne nowe produkty. Nawet twórcy najnowszych czatbotów AI zdają sobie sprawę, że technologia może dostarczać w odpowiedzi na zapytania błędne, nieścisłe, tendencyjne lub mylące informacje. A to rodzi nowe ryzyko.

Opublikowane dzięki uprzejmości firmy Korn Ferry. 

O autorach
Tematy

Może Cię zainteresować

Wdrażanie AI z ludzkiej perspektywy. Praktyczne lekcje

Dlaczego w wielu branżach AI wciąż budzi opór zamiast entuzjazmu? Ten tekst pokazuje, że o sukcesie wdrożeń decydują nie algorytmy, lecz ludzie, ich nawyki i sposób pracy.

Dlaczego niektórzy pracownicy zawsze odpowiadają jako ostatni i co to tak naprawdę sygnalizuje

Opóźnione odpowiedzi w pracy rzadko są przypadkowe. To często subtelny sygnał statusu i kontroli, który wpływa na tempo pracy zespołu i poziom zaufania.

Zasady przywództwa: jak procentuje inspiracja

Jak stworzyć zasady przywództwa, które naprawdę działają? Dwie szkoły biznesu pokazują, że kluczem jest współtworzenie, autentyczność i konsekwencja w działaniu – a nie same deklaracje wartości.

Gdy odpowiedzialność zespołu spada: cztery trudne pytania dla liderów

Brak odpowiedzialności w zespole rzadko wynika ze złej woli pracowników. Częściej jest skutkiem przeciążenia, niejasnych ról, nadmiaru osób i zadań oraz stylu zarządzania, który nie sprzyja otwartości. Cztery pytania pomagają liderce zdiagnozować prawdziwe źródło problemu i wprowadzić konkretne zmiany.

Dlaczego sukcesja na stanowisku CEO rzadko przynosi rzeczywistą zmianę

Chociaż firmy głośno deklarują potrzebę głębokiej transformacji, proces sukcesji na stanowisku dyrektora generalnego często sprowadza się do wyboru najbezpieczniejszej opcji. Odkryj, dlaczego zarządy wpadają w pułapkę „homospołecznej reprodukcji”, powielając znane profile menedżerskie i nieświadomie blokując strategiczny rozwój swojej organizacji.

Praca w erze AI: Zaskakująca lekcja biznesu z książki dla dzieci

Rozwój sztucznej inteligencji budzi uzasadnione obawy o przyszłość rynku pracy i stabilność zatrudnienia. Odkryj, dlaczego eksperci od zarządzania szukają odpowiedzi w klasycznej literaturze i w jaki sposób historia o przestarzałej koparce parowej może pomóc Ci zaplanować udaną reorientację kariery w nowej, technologicznej rzeczywistości.

Jak czerpać skumulowane korzyści z generatywnej sztucznej inteligencji

Jak sprawić, aby każda interakcja z generatywną sztuczną inteligencją zwiększała kompetencje organizacji, a nie tylko przyspieszała pracę? Kluczem jest przejście od konsumpcji wyników AI do systematycznego uczenia się na ich podstawie.

Cieśnina Ormuz: Które sektory i regiony najmocniej odczują skutki kryzysu?

Trwający kryzys na Bliskim Wschodzie i zakłócenia w żegludze przez Cieśninę Ormuz uderzają w globalne łańcuchy dostaw, uderzając w rynki daleko poza sektorem energetycznym. Poznaj najnowsze analizy i dowiedz się, które branże są najbardziej narażone na straty oraz w jaki sposób liderzy biznesu powinni zabezpieczyć swoje organizacje przed eskalacją ryzyka operacyjnego.

Ropa, wojna i gospodarka. Jak rynki wyceniają kryzys w Zatoce Perskiej

Szok naftowy, widmo powrotu uporczywej inflacji i geopolityczne trzęsienie ziemi na Bliskim Wschodzie. Atak USA i Izraela na Iran poddał globalne rynki brutalnej próbie stresu, jednak zamiast ślepej paniki, kapitał rozpoczął chłodną kalkulację zawirowań. Jak brzmi rynkowa narracja  na parkietach i w jaki sposób liderzy biznesu powinni nawigować w epoce nowej, ekstremalnej niepewności?

Multimedia
Hype na AI: Kto naprawdę zyskuje na narracjach o sztucznej inteligencji?

Czy sztuczna inteligencja naprawdę zrewolucjonizuje rynek pracy, czy to tylko zręczna manipulacja gigantów z Doliny Krzemowej? W najnowszym odcinku podcastu „Limity AI” Jacek Mańko dekonstruuje technologiczny hype i wyjaśnia, kto tak naprawdę zarabia na opowieściach o świadomych maszynach.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!