Najpopularniejsze tematy:

Premium

Materiał dostępny tylko dla Subskrybentów

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Jesteś Subskrybentem? Zaloguj się

Premium

Subskrybenci wiedzą więcej!

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Wybierz wariant dopasowany do siebie!

Jesteś Subskrybentem? Zaloguj się

X
Następny artykuł dla ciebie
Wyświetl >>
Jakie zagrożenia niesie ze sobą uczłowieczanie sztucznej inteligencji

Sztuczna inteligencja osiąga coraz wyższe poziomy rozwoju. Obecne generatory treści lub obrazów potrafią wprowadzić w błąd, tworząc materiały do złudzenia przypominające efekty pracy ludzkich rąk. Natomiast rozmowa z agentami AI, funkcjonującymi na niektórych stanowiskach związanych z obsługą klienta lub sprzedażą, często sprawia pozory kontaktu z człowiekiem. Jakkolwiek wydawałoby się to błahe, nadmierne uczłowieczanie AI może nieść ze sobą ogromne ryzyko. Liderzy muszą wytyczyć jasny kurs dla swoich organizacji, by w odpowiedni sposób postrzegały i komunikowały swoje sposoby wykorzystania sztucznej inteligencji.

Duże modele językowe (large language models; LLM) wydają się bardzo atrakcyjnym rozwiązaniem w wielu gałęziach biznesu. Są w stanie w kilka sekund przeanalizować tysiące informacji i wygenerować całe strony tekstu. Jednak należy pamiętać o sposobie, w jaki „myślą”.  Są to w generatory tekstu dobierające kolejne fragmenty swojej wypowiedzi spośród najbardziej prawdopodobnych kontynuacji zapytania wpisanego przez użytkownika. Nie rozumują w ten sam sposób co ludzie. Chociaż posługują się naszym językiem (od angielskiego, przez polski, po najbardziej egzotyczne dialekty), nie tworzą wewnątrz swojego systemu modeli znaczeń generowanych słów. Biorą pod uwagę jedynie ich usytuowanie w tekstach, na podstawie których się szkoliły.

Czy chatbot może zostać przyjacielem?

„Epidemia” samotności stanowi jeden z najpoważniejszych problemów XXI wieku. Dynamiczne tempo życia, globalizacja i przeniesienie kontaktów do strefy cyfrowej nie sprzyjają poczuciu przynależności, przyczyniając się do mimowolnej izolacji jednostki. Biorąc na tapet bieżące zagadnienia, które mają wpływ na współczesne społeczeństwo, nie sposób nie rozbić się i na tym polu o kwestię sztucznej inteligencji (artificial intelligence; AI). Jej wykorzystanie w biznesie czy nauce jest szczegółowo badane pod każdym kątem.

Tymczasem pozostaje jeszcze jeden obszar, w którym może mieć ona ogromny potencjał – mianowicie psychologia człowieka. Badanie Towarzysze AI redukują samotność przeprowadzone przez Stefano Puntoniego, Juliana De Freitasa, Ahmeta Kaan Uğuralpa i Zeliha Uğuralpa  – amerykańskich i tureckich naukowców – odpowiada na kluczowe pytanie: „Czy chatbot AI może stać się naszym przyjacielem?” .

AI odpowiada na potrzeby emocjonalne

W ramach badania przeprowadzono serię eksperymentów określających wpływ chatbotów na poziom samotności odczuwanej przez uczestników. Dla pierwszej grupy badanych chatbot  GPT‑4 był zaprogramowany na neutralny ton rozmowy. Rozmowa z nim nie sprawiła, że czuli się mniej samotni. Oznacza to, że sama rozmowa z botem nie wpływa na poczucie odosobnienia. Naukowcy stopniowo zwiększali ton wypowiedzi chatbota na coraz bardziej pomocny, empatyczny i optymistyczny.  Z każdym kolejnym eksperymentem zaobserwowali coraz większą poprawę. Grupie, która badała chatbota na maksymalnych ustawieniach, już piętnastominutowa rozmowa dawała ulgę w poczuciu samotności porównywalną do rozmowy z innym człowiekiem. Badanie rozszerzono, by zaobserwować efekt tego typu piętnastominutowych rozmów z botem przypominającym człowieka każdego dnia przez cały tydzień.

To rozwiązanie naprawdę spodobało się uczestnikom, bez względu na ich początkowe nastawienie. Czuli się wysłuchani i zrozumiani, nawet jeśli wiedzieli, że rozmawiali jedynie z komputerem. Te umiejętności modeli językowych mogą być niezwykle przydatne w zastosowaniach biznesowych i podczas komunikacji z konsumentami. Należy jednak pamiętać o aspekcie etycznym i nie tworzyć modeli, które będą dokonywać manipulacji emocjonalnych. Takie podejście może się bowiem odbić negatywnie na reputacji danej organizacji.

Uczłowieczanie AI sprawia, że zapominamy o kontroli jej pracy

Gen‑AI świetnie sprawdza się jako narzędzie kreatywne i zdecydowanie warto korzystać z niego w tym celu. Niestety pomimo sporych postępów w rozwoju modeli i ich rozumowania, sztuczna inteligencja wciąż ma poważne trudności z weryfikowaniem wiarygodności informacji. Mieszanie terminów, znaczeń czy tworzenie fikcyjnych nazwisk to zaledwie wierzchołek góry lodowej. Z tego względu posługująca się nią osoba powinna nie tylko być zdolna do korekty redakcyjnej, ale przede wszystkim mieć wiedzę merytoryczną i zdolność do wychwytywania błędnych informacji. Dlatego powstało również drugie, humorystyczne rozwinięcie skrótu LLM – Lazy, Lying Machines (ang. „leniwe, kłamiące maszyny”).

Choć obecnie w debacie publicznej coraz częściej zwraca się uwagę na problem halucynowania sztucznej inteligencji, wiele osób ciągle go marginalizuje. Uczłowieczanie AI prowadzi do nadmiernego zaufania do jej kompetencji, jak gdyby była żywą istotą, zamierzającą szczerze właściwie wykonać swoje zadania. Jeżeli już chcemy spojrzeć na nią jak na istotę humanoidalną, warto przyjąć perspektywę, że jest to raczej obcy, który nauczył się naszego języka, jednak bez kontekstu i podstawowej wiedzy łatwo może przeinaczać wydźwięk swoich komunikatów.

Sposób „myślenia” dużych modeli językowych

Jeden z wiodących autorytetów w dziedzinie AI – François Chollet – podkreśla, że należy oprzeć się pokusie antropomorfizacji sztucznej inteligencji. Duże modele językowe (LLM‑y), takie jak ChatGPT, Gemini lub DeepSeek, posiadają imponujące zdolności generowania tekstu, a nawet rozumowania, jednak ich „inteligencja” nie jest tym samym co ludzka. Nie mają własnych celów ani autonomii działania. Jako generatory tekstu stanowią co najwyżej formę „kognitywnej automatyzacji”, czyli realizują zadania na podstawie wcześniej zaobserwowanych rozwiązań . W związku z tym korzystają z tendencji zakodowanych w parametrach modelu podczas szkolenia w oparciu o teksty napisane przez człowieka. W rezultacie wciąż można znaleźć wiele zadań, w których ludzki umysł jest w stanie wygrać z topowymi modelami. I nie zawsze wymaga w tym celu skrupulatnego przygotowania merytorycznego.

Uczłowieczanie AI szkodzi generowanym treściom

Umiejętność odpowiedniego rozumienia i wykorzystywania sztucznej inteligencji jest kluczowa dla nowoczesnego lidera. Osoby na stanowiskach kierowniczych powinny umieć biegle wykorzystywać te narzędzia celem ułatwienia sobie pracy. Prawdopodobnie będą również wdrażać je w swoich organizacjach. Jak zrobić to w najlepszy sposób? Chollet rekomenduje, żeby pracując z LLM‑ami, wizualizować je sobie jako wielkie bazy danych. Chcąc uzyskać pożądany rezultat – np. tekst – należy pomyśleć o optymalnym zapytaniu. Od jego formy zależy bowiem, jakie efekty uzyskamy. Istnieje wiele technik, by poprawić ich wydajność. Zajmuje się tym tak zwana inżynierii promptów (prompt engineering). Na obecnym etapie rozwoju model nie zostanie naszym przyjacielem, a myślenie o nim w antropomorficzny sposób utrudnia pragmatyczne rozwiązywanie problemów.

Jak konsumenci odbierają sztuczną inteligencję w komunikacji firmy?

Wiele firm może ulec pokusie, by wykorzystać sztuczną inteligencję jako substytut kontaktu z obsługą klienta lub na innych stanowiskach kontaktowych. Oczywiście może znacznie usprawnić istniejące procesy. Występuje jednak również spore ryzyko dla reputacji oraz wydajności firmy. Zwłaszcza jeśli chatboty zostaną przedstawione jako łudząco podobne do ludzi. Nowe badania wskazują, że konsumenci nie są zadowoleni z sytuacji, w których aplikacja AI zostaje przedstawione jako człowiek bądź „ekspert” w danej dziedzinie. Chociaż modele są coraz lepsze, kontakt z człowiekiem jest wciąż uważany za najbardziej wartościowy. Żeby dbać o reputację firmy, lepiej nie zamydlać tej granicy.

Wnioski dla biznesu

Liderzy muszą podejść do sytuacji przede wszystkim z praktycznej perspektywy. Z jednej strony wdrażanie nowych technologii jest niezbędne, aby utrzymać się – nie tylko wyróżnić – na konkurencyjnym rynku. Z drugiej zaś zaimplementowanie sztucznej inteligencji, które nie spełni oczekiwań odbiorców, może przynieść odwrotne skutki. Gdzie znaleźć złoty środek? Komunikacja będzie znacznie bardziej skuteczna, gdy konsumenci zostaną poinformowani o fakcie rozmowy ze sztuczną inteligencją. Jeśli dana firma przygotowała specjalistyczną aplikację, najlepiej podkreślić rolę ludzkich ekspertów w tworzeniu i trenowaniu programu. Kluczowa jest transparencja, która pozwala każdemu wiedzieć, z kim rozmawia i w jakim zakresie wykorzystywana jest AI. Ważne również, by firma trzymała się odpowiednich standardów etycznych i nie wykorzystywała technologii do manipulacji emocjami konsumentów. W ten sposób – krok po kroku – można otrzymać optymalne efekty oraz przyczynić się do kształtowania najlepszych praktyk społeczno‑ekonomicznych.


Najpopularniejsze tematy