Reklama
Dołącz do grona liderów, którzy chcą więcej
AI SZTUCZNA INTELIGENCJA
Polska flaga

Polacy chcą AI w pracy – ale na własnych zasadach. Co zaufanie do wirtualnych agentów mówi o przyszłości przywództwa?

19 czerwca 2025 5 min czytania
Gabriela Targońska

Streszczenie: Polscy pracownicy są otwarci na wykorzystanie sztucznej inteligencji w miejscu pracy, jednak oczekują transparentności, kontroli i jasnych zasad odpowiedzialności. Zainteresowanie AI (51,2%) współistnieje z obawami o utratę pracy (41,7%) i niezrozumienie jej działania (32,7%). Zaufanie do rekomendacji AI pozostaje niskie – tylko 6% w pełni ufa decyzjom podejmowanym przez algorytmy. Najbardziej akceptowane są role wspierające, jak wirtualny asystent czy analityk danych. Kluczowe znaczenie ma wprowadzenie systemów zarządzania AI (AI governance), które wzmacniają zaufanie i osadzają technologię w wartościach firmy, minimalizując ryzyka i wspierając rozwój organizacji.

Pokaż więcej

Coraz więcej firm wdraża wirtualnych asystentów i analityków opartych na sztucznej inteligencji, chcąc zyskać na efektywności i innowacyjności. Ale co na to pracownicy? Najnowsze badanie przeprowadzone przez ASM na zlecenie Salesforce ujawnia jednoznacznie: Polacy są otwarci na AI w miejscu pracy, ale tylko pod warunkiem, że zachowają kontrolę i zrozumieją działanie tych narzędzi.

Sztuczna inteligencja w pracy – ciekawość miesza się z niepokojem

Wprowadzenie sztucznej inteligencji do pracy wywołuje emocje, których nie sposób zignorować. Z jednej strony Polacy okazują wyraźne zainteresowanie – aż 51,2% respondentów deklaruje ciekawość wobec agentów AI, a ponad 20% wyraża nadzieję na poprawę jakości pracy. Współczesny pracownik widzi w AI realne wsparcie: automatyzację, szybkie analizy i pomoc w podejmowaniu trudnych decyzji.

To tylko niektóre z możliwości, jakie AI wnosi do środowiska pracy.

Ten entuzjazm nie eliminuje jednak obaw. Blisko jedna trzecia badanych przyznaje, że obecność AI w miejscu pracy budzi ich niepokój, a 13,6% odczuwa wręcz strach. Najczęstsze powody to obawa przed utratą pracy (41,7%) oraz brak zrozumienia mechanizmów decyzyjnych sztucznej inteligencji (32,7%). W oczach wielu osób agent AI nadal przypomina potężne narzędzie, którego działania trudno przewidzieć i jeszcze trudniej zakwestionować. Taka sytuacja sprzyja zjawisku tzw. „automation bias” – bezrefleksyjnemu ufaniu technologii, nawet gdy popełnia ona błędy.

Zaufanie do decyzji AI? Polacy ostrożnie: „To zależy od sytuacji”

Choć technologia rozwija się w imponującym tempie, społeczne zaufanie do decyzji podejmowanych przez sztuczną inteligencję w pracy pozostaje ograniczone. Tylko 6% Polaków deklaruje, że w pełni ufa rekomendacjom agentów AI. Aż 41,3% respondentów twierdzi, że ich zaufanie do AI zależy od sytuacji – kontekstu, ryzyka, rodzaju zadania i możliwości weryfikacji decyzji.

To niepokojąco niski poziom zaufania, który stanowi istotne wyzwanie dla zarządów firm planujących wdrażanie rozwiązań AI do codziennej pracy zespołów. Okazuje się bowiem, że samo posiadanie zaawansowanej technologii nie wystarczy. Kultura zaufania do AI wymaga więcej niż technologicznego know-how – wymaga głębokiego przemyślenia relacji między człowiekiem a algorytmem.

Eksperci z Harvard Business School zwracają uwagę na to, że zaufanie buduje się poprzez trzy filary: autentyczność, logikę i empatię. W kontekście AI oznacza to konieczność pełnej przejrzystości algorytmicznej (tzw. explainable AI), jasnych zasad odpowiedzialności oraz otwartej komunikacji o ograniczeniach technologii. Zaufanie do AI musi być zarządzane tak samo jak reputacja firmy czy relacje z klientem.

Jakie role agentów AI są najbardziej akceptowalne?

Polacy są otwarci na współpracę z AI, o ile jej rola jest jasna, wspierająca i nie zastępuje człowieka. Z badania Salesforce i ASM wynika, że największe poparcie zdobywa agent AI pełniący funkcję wirtualnego asystenta – wskazało go 36,8% respondentów. Pracownicy postrzegają tę rolę jako wsparcie w rutynowych zadaniach, które nie odbiera im wpływu na kluczowe decyzje.

Drugą najchętniej wskazywaną funkcją jest analityk danych, który wspiera proces decyzyjny – wybrało ją 30,8% badanych. W tym modelu AI dostarcza analizy i rekomendacje, ale to człowiek ostatecznie podejmuje decyzję. Dzięki temu rośnie zaufanie – technologia staje się pomocnikiem, a nie sędzią.

Więcej wątpliwości budzą „miękkie” zastosowania: chatboty zespołowe (28,8%) i kreatywni asystenci (25,3%). Pracownicy z większym dystansem podchodzą do automatyzacji komunikacji i procesów twórczych. Co więcej, 10,2% ankietowanych deklaruje, że nie zaakceptowałoby żadnej formy AI jako współpracownika. To sygnał, że każde wdrożenie AI musi iść w parze z komunikacją i edukacją – tylko wtedy technologia zyskuje realną wartość w oczach pracowników.

Trend jest jasny: największe zaufanie budzą te zastosowania AI, które zwiększają wydajność i ułatwiają pracę, bez naruszania autonomii ludzi. To zgodne z obserwacjami globalnymi m.in. z raportem Deloitte, który wskazuje, że organizacje odnoszą największe korzyści wtedy, gdy AI działa jako partner, a nie substytut.

Agenci AI – zagrożenie czy przewaga konkurencyjna?

Agenci AI – szczególnie ci operujący w obszarach wspierających decyzje, komunikację czy zarządzanie wiedzą – ingerują w podstawowe procesy organizacyjne. Dotykają zadań, które dotychczas były przypisane ludziom, a tym samym zmieniają definicję odpowiedzialności, zaufania i relacji w zespołach. Firma, która traktuje wdrożenie AI jak zwykły projekt IT, ryzykuje opór pracowników i zaburzenie kultury organizacyjnej.

Dlatego właśnie najlepsze, najbardziej dojrzałe organizacje sięgają po tzw. AI governance frameworks – systemowe podejścia do zarządzania sztuczną inteligencją w organizacji. To nie tylko techniczne regulacje – to strategie, które zapewniają przejrzystość, zrozumiałość decyzji AI, nadzór człowieka i zgodność z wartościami firmy.

Jak podkreślają eksperci z World Economic Forum, skuteczne governance to podstawa budowania zaufania, zarówno wewnątrz organizacji, jak i w relacjach z klientami. W dojrzałym modelu AI działa według jasno określonych zasad, podlega audytowi, a jej wdrożenie poprzedza dialog z zespołem i analiza ryzyk.

Dzięki temu agenci AI stają się nie zagrożeniem, lecz źródłem przewagi – wspierają szybsze, lepsze i bardziej świadome decyzje biznesowe. W dobie niepewności, presji kosztów i potrzeby skalowania to właśnie odpowiedzialne wdrożenie AI może wyróżnić firmę na rynku.

PRZECZYTAJ TAKŻE: Pędzący pociąg rewolucji sztucznej inteligencji. Adopcja AI w Polsce

O autorach
Tematy

Może Cię zainteresować

Inwestowanie w innowacje: jak robić więcej mniejszym kosztem

Choć większość liderów deklaruje, że innowacje to ich najsilniejsza broń, w obliczu rynkowych turbulencji aż 60% z nich decyduje się na zamrożenie lub obcięcie wydatków na ten cel. To pułapka krótkowzroczności, która oddaje pole konkurencji w momencie, gdy kształtuje się „nowa normalność”. Dowiedz się jak przeprowadzić bezlitosne porządki w portfelu projektów i przywrócić innowacjom ich realną moc.

Nie tylko młode talenty. Pamiętaj o nestorach

W świecie biznesu zdominowanym przez kult młodości i technologiczny pośpiech, firmy często cierpią na „organizacyjną amnezję”. Tymczasem najcenniejszy zasób Twojej firmy może właśnie planować przejście na emeryturę. A przecież dojrzały wiek to nie balast, lecz etap kariery o unikalnym potencjale strategicznym. Autorzy wprowadzają pojęcie „nestora” – osoby, która dzięki swojej mądrości, sieciom kontaktów i braku konieczności walki o awanse, staje się dla organizacji nieocenionym aktywem.

Agentowe narzędzia AI do kodowania: co powinni wiedzieć liderzy

Większość menedżerów utknęła w pętli „czatowania” z AI, traktując narzędzia takie jak ChatGPT jedynie jako sprawniejszą wyszukiwarkę. Tymczasem agentowe narzędzia AI, dotychczas kojarzone wyłącznie z pisaniem kodu, stają się nowym fundamentem pracy umysłowej. Pozwalają one budować trwałą „pamięć instytucjonalną” i automatyzować złożone procesy – od analizy konkurencji po due diligence – bez konieczności pisania choćby jednej linii kodu. Dowiedz się, dlaczego narzędzia takie jak Claude Code to nie tylko gratka dla deweloperów, ale kluczowy element przewagi strategicznej nowoczesnego lidera.

Algorytmy na wybiegu: Jak model „AI-first” zmienia rynek mody

Współczesny sektor mody i dóbr luksusowych przechodzi fundamentalną zmianę, w której sztuczna inteligencja przestaje być jedynie narzędziem pomocniczym, a staje się głównym architektem strategii operacyjnej. Wg BCG, firmy przyjmujące model „AI-first” muszą zmierzyć się z nową rzeczywistością, w której konsumenci porzucają tradycyjne wyszukiwarki na rzecz platform takich jak ChatGPT czy Perplexity, zmuszając marki do walki o widoczność w świecie zdominowanym przez algorytmy rekomendacyjne.

Co traktat ONZ o cyberprzestępczości może oznaczać dla Twojej firmy

Nowy traktat Organizacji Narodów Zjednoczonych ustanawia międzynarodowe ramy prowadzenia dochodzeń i ścigania przestępstw online, takich jak ataki ransomware czy oszustwa finansowe, które często mają charakter transgraniczny. Choć dokument ten wprost definiuje cyberprzestępczość oraz precyzuje zakres odpowiedzialności organów ścigania i przedsiębiorstw w takich przypadkach, obawy dotyczące prywatności i swobód obywatelskich wciąż nie zostały w pełni rozstrzygnięte. Firmy o zasięgu globalnym powinny już teraz rozpocząć przygotowania do nadchodzącego egzekwowania nowych przepisów.

empatia Czy empatia stanie się kluczową kompetencją przywódczą?

W erze rosnącej złożoności i niepewności, kluczową rolę w sukcesie organizacji odgrywa styl przywództwa oparty na empatii, partnerstwie i bezpieczeństwie psychologicznym. Tradycyjne modele hierarchiczne ustępują miejsca transformacyjnemu przywództwu, które aktywuje potencjał zespołów i sprzyja innowacjom.

AI w biznesie 5 trendów AI, które zdefiniują strategię liderów w 2026 roku

Sztuczna inteligencja do 2026 roku przekształci się z pojedynczych narzędzi w złożone, agentowe super-aplikacje, które zmienią sposób zarządzania, organizacji pracy i strategii konkurencyjnej. Transformacja ta ma wymiar globalny, z rosnącym znaczeniem lokalnej specjalizacji i integracji AI z infrastrukturą fizyczną oraz mediami generatywnymi. W efekcie powstaje multipolarna gospodarka oparta na inteligentnej infrastrukturze i zrozumieniu lokalnych potrzeb.

Enszityfikacja: Jak pogoń za marżą niszczy wartość „inteligentnych” produktów

Kiedyś jednym z symboli jakości była trwałość produktu fizycznego. Dziś, dzięki cyfryzacji, firmy dążą do sprawowania kontroli nad produktem długo po tym, jak opuścił on linię produkcyjną. To, co miało być rewolucją w komforcie i personalizacji, coraz częściej zmienia się w tzw. enszityfikację – proces, w którym innowacja ustępuje miejsca agresywnej monetyzacji, a klient z właściciela staje się jedynie subskrybentem własnych przedmiotów.

Mapa ryzyka 2026: Globalna perspektywa jest ważniejsza niż kiedykolwiek

W świecie rozdartym między nieuchronną integracją gospodarczą a politycznym zwrotem ku nacjonalizmom, liderzy biznesu stają przed paradoksem: jak budować wartość, gdy tradycyjne bezpieczne przystanie zmieniają swój charakter? Analiza danych z 2025 roku pokazuje, że choć politycy mogą dążyć do izolacji, kapitał nie posiada tego luksusu. Zapraszamy do głębokiego wglądu w globalne rynki akcji, dynamikę walut i nową mapę ryzyka krajowego, która zdefiniuje strategie inwestycyjne w 2026 roku.

Plotki w biurze: błąd systemu czy ukryty feedback?

Plotka biurowa to rzadko objaw toksycznej kultury, a najczęściej sygnał, że oficjalna komunikacja w firmie zawodzi. Zamiast uciszać nieformalne rozmowy, liderzy powinni traktować je jako cenny mechanizm informacji zwrotnej. Sprawdź, jak zrozumieć potrzeby zespołu ukryte między wierszami i skutecznie zarządzać organizacją w obliczu nieuniknionych zmian.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!