Dołącz do grona liderów, którzy chcą więcej
AI SZTUCZNA INTELIGENCJA
Polska flaga

Czy ufam, bo brzmi mądrze? Zaufanie poznawcze w interakcji człowiek–AI

16 lipca 2025 9 min czytania
Gabriela Targońska
zaufanie do AI

Streszczenie: Wpływ przejrzystości interfejsu użytkownika na zaufanie do systemów wspomagania decyzji opartych na uczeniu maszynowym zależy od sposobu prezentacji informacji. Wyjaśnienia zwiększają zrozumiałość, ale mogą obniżać zaufanie, jeśli ujawniają ograniczenia modelu. Użytkownicy częściej ufają systemom, które wydają się spójne i ukrywają niepewność, nawet kosztem dokładności. Projektowanie interfejsów powinno uwzględniać nie tylko transparentność, ale również psychologiczne reakcje użytkowników, aby skutecznie wspierać ich w podejmowaniu decyzji.

Pokaż więcej

Sztuczna inteligencja coraz częściej staje się naszym „domyślnym doradcą. Pomaga w zakupach, decyzjach kadrowych czy diagnostyce medycznej. W rzeczywistości przeładowanej danymi i szumem informacyjnym AI filtruje, analizuje i podsuwa decyzje. Dla użytkownika to wygoda. Dla organizacji – potencjalna pułapka.

Pojawia się bowiem zasadnicze pytanie: kiedy i dlaczego ufamy rekomendacjom AI? I czy nasze zaufanie jest efektem racjonalnego osądu, czy może jedynie złudzeniem poznawczym?

AI, czyli nowy autorytet?

Zaufanie poznawcze (cognitive trust) to przekonanie, że dany system, w tym przypadku sztuczna inteligencja działa racjonalnie, kompetentnie i zgodnie z interesem użytkownika. Co istotne, nie wynika ono bezpośrednio z weryfikowalnych efektów działania systemu, ale raczej z domniemanego procesu logicznego, który przypisujemy maszynie. Innymi słowy: nie ufamy dlatego, że rozumiemy, tylko dlatego, że wierzymy, iż AI „myśli” poprawnie.

I tu rodzi się zasadniczy problem. W erze algorytmów działających w trybie tzw. czarnej skrzynki (black-box AI) użytkownicy w praktyce nie mają możliwości zrozumienia, w jaki sposób podejmowane są decyzje. Modele bazujące na głębokim uczeniu (deep learning) są nieprzejrzyste, zarówno dla użytkowników, jak i dla samych twórców. W rezultacie, zamiast opierać się na analizie mechanizmów działania systemu, ludzie sięgają po uproszczone strategie oceny, czyli heurystyki zaufania.

Jak pokazuje Rikard Rosenbacke (Copenhagen Business School, 2025), w takiej sytuacji zachodzi zjawisko, które można określić mianem poznawczej kompensacji. Skoro nie jesteśmy w stanie zrozumieć, jak AI dochodzi do swoich rekomendacji, to oceniamy je po tym, jak wyglądają i jak są prezentowane. Jeśli system wykorzystuje specjalistyczny język lub operuje efektowną grafiką, automatycznie wzrasta nasza percepcja jego kompetencji. Zaufanie nie wynika wtedy z oceny wartości merytorycznej, lecz z formy przekazu – a to fundamentalna różnica. W praktyce oznacza to, że użytkownik nie tyle współpracuje z AI, ile zaczyna się jej podporządkowywać. Decyzje podejmowane przez maszynę są przyjmowane domyślnie jako lepsze, często bez głębszego namysłu. Zjawisko to Rosenbacke określa jako przesunięcie epistemicznego ciężaru. Polega na przeniesieniu odpowiedzialności za krytyczne myślenie z człowieka na technologię. Sztuczna inteligencja przestaje być narzędziem wspierającym decyzje, a staje się ich autorem.

Dla organizacji wdrażających rozwiązania oparte na AI to poważne wyzwanie strategiczne. Gdy użytkownik przestaje być aktywnym uczestnikiem procesu decyzyjnego i zamienia się w biernego odbiorcę rekomendacji, pojawia się realne ryzyko zarówno błędów systemowych, jak i automatycznego myślenia. W środowiskach wysokiego ryzyka – takich jak opieka zdrowotna, finanse czy wymiar sprawiedliwości, to zagrożenie może mieć krytyczne konsekwencje.

Zaufanie poznawcze do AI może być zasobem, ale tylko wtedy, gdy jest świadome, skalibrowane i wspierane edukacją. Bez tego staje się iluzją, której koszt poznawczy i organizacyjny może być znacznie wyższy niż przewidywano.

Głos maszyny, który brzmi jak ekspert

Jednym z kluczowych wyzwań we współpracy człowieka z AI jest to, że użytkownicy nierzadko przypisują maszynom autorytet poznawczy nie w oparciu o wyniki, lecz o sposób komunikacji. Jeśli głos AI „brzmi mądrze”, decyzje podejmowane przez systemy stają się trudniejsze do zakwestionowania, nawet wtedy, gdy są błędne.

Badania Rikarda Rosenbacke (Copenhagen Business School, 2025) pokazują, że w środowisku klinicznym lekarze częściej akceptowali błędne rekomendacje generowane przez systemy wspomagania decyzji medycznych, gdy były one sformułowane w sposób profesjonalny. Co więcej – im bardziej komunikat przypominał ekspertyzę ludzkiego specjalisty, tym większa była skłonność do uznania go za trafny. Nie analizowano przesłanek ani nie zadawano pytań o źródła. Autorytet był wbudowany w język i ton przekazu.

To zjawisko, określane niekiedy jako performatywna kompetencja – ma poważne konsekwencje organizacyjne. W środowiskach wysokiego ryzyka, może prowadzić do kosztownych błędów operacyjnych, systemowej nadmiernej automatyzacji, a nawet utraty kontroli nad procesem decyzyjnym.

W odpowiedzi na to wyzwanie Buçinca, Malaya i Gajos (Harvard University, 2021) zaproponowali stosowanie interwencji poznawczych, które mają za zadanie przywrócić człowieka do roli aktywnego uczestnika procesu decyzyjnego. Jedną z takich technik jest tzw. cognitive forcing function – mechanizm zmuszający użytkownika do wyjaśnienia lub uzasadnienia swojej decyzji po zapoznaniu się z rekomendacją AI. Tego rodzaju rozwiązania zwiększają refleksyjność i redukują ryzyko bezkrytycznego podporządkowania się sugestiom maszyny. Jednak, jak zauważają sami autorzy, skuteczność tych narzędzi bywa ograniczona. Interwencje poznawcze wymagają większego wysiłku poznawczego, co w praktyce może obniżać komfort użytkownika, wydłużać czas reakcji i prowadzić do tzw. oporu kognitywnego (decyzyjnego zmęczenia). Użytkownicy, szczególnie w środowiskach zorientowanych na efektywność, mogą je omijać lub traktować jako barierę.

Efekt aureoli: iluzja kompetencji

Zaufanie do sztucznej inteligencji rzadko bywa wynikiem analizy algorytmu czy zrozumienia jego logiki działania. W większości przypadków użytkownicy oceniają systemy AI na podstawie cech powierzchownych. Tego, jak się prezentują i jak komunikują swoje rekomendacje. To klasyczny efekt aureoli (halo effect), znany z psychologii społecznej, ale dziś zyskujący nowe życie w interfejsach technologicznych. Jeśli jedna cecha systemu, np. estetyczny design, profesjonalne ikony lub język ekspercki – wywołuje pozytywne wrażenie, użytkownicy są skłonni przypisywać całemu systemowi wyższy poziom wiarygodności. Nie dlatego, że system rzeczywiście działa lepiej, ale dlatego, że wygląda na lepszy.

Jak pokazuje Rosenbacke (Copenhagen Business School, 2025), użytkownicy oceniają algorytmy nie tylko na podstawie wyników, ale również na podstawie sposobu prezentacji rekomendacji. W jego badaniach systemy AI, które operowały w sposób bardziej „profesjonalny”, poprzez pewny siebie ton komunikatu czy bardziej dopracowany interfejs – były oceniane jako bardziej skuteczne, nawet jeśli ich rzeczywista trafność decyzji była niższa niż u systemów „zwyczajnych”.

Ten efekt jest szczególnie niebezpieczny, gdy iluzja kompetencji zastępuje weryfikację. W praktyce może prowadzić do sytuacji, w której organizacje chętniej akceptują decyzje AI niż ludzi, nie dlatego, że są one trafniejsze, lecz dlatego, że brzmią wiarygodnie. To rodzi ryzyko nadmiernej automatyzacji, uproszczeń decyzyjnych i wyparcia kompetencji ludzkich z kluczowych procesów. Dla liderów technologii i menedżerów odpowiedzialnych za wdrażanie AI oznacza to jedno: projektowanie interfejsu to nie tylko kwestia UX. To również projektowanie zaufania, a więc proces, który powinien być etyczny, transparentny i oparty na realnej wartości, nie na estetycznym złudzeniu skuteczności.

Docenianie algorytmu: dlaczego wybieramy AI nawet wtedy, gdy się myli?

Jednym z najbardziej paradoksalnych zjawisk we współczesnej interakcji człowiek–AI jest tzw. docenianie algorytmu(algorithm appreciation), czyli tendencja do preferowania rekomendacji generowanych przez sztuczną inteligencję nawet wtedy, gdy są one identyczne lub mniej trafne niż propozycje przedstawione przez człowieka.

Badania Cathy Liu, Xitonga Li i Sangseoka You (HEC Paris, 2022) pokazują, że użytkownicy są skłonni bardziej ufać systemom AI niż ludziom, nawet jeśli ujawnione zostają ich niedoskonałości. W serii eksperymentów uczestnicy częściej wybierali rekomendacje AI, mimo że w rzeczywistości były one równoważne lub mniej dokładne niż te oferowane przez ekspertów ludzkich. Co więcej, informowanie uczestników o wcześniejszych błędach systemu nie zawsze prowadziło do obniżenia zaufania,  sugerując, że maszyny cieszą się domyślnym statusem „bezstronnych doradców”, odpornych na emocje i uprzedzenia. To zjawisko może wynikać z głęboko zakorzenionej wiary w neutralność technologii. Algorytm, w przeciwieństwie do człowieka, nie ma ego, nie kieruje się interesem własnym, nie jest emocjonalny. Takie przekonanie, choć niekoniecznie zgodne z rzeczywistością (algorytmy przecież dziedziczą uprzedzenia danych), staje się psychologiczną podstawą zaufania.

Jednak badacze podkreślają, że zaufanie to ma swoje granice i punkty krytyczne. W jednym z eksperymentów wykazano, że nadmiar przejrzystości, np. prezentowanie złożonych statystyk wydajności AI, niejednoznacznych metadanych lub nieintuicyjnych wykresów – prowadził do przeciążenia poznawczego i spadku zaufania. Użytkownicy, zamiast czuć się bardziej poinformowani, doświadczali niepewności, frustracji i unikali korzystania z rekomendacji.

Czy ufamy, bo brzmi mądrze? Podsumowanie

Zaufanie do sztucznej inteligencji przestaje być wyłącznie kwestią technologiczną. Staje się decyzją poznawczą i strategiczną. Coraz więcej badań pokazuje, że użytkownicy przypisują AI wysoką kompetencję nie na podstawie wyników, lecz formy prezentacji, języka czy wyglądu systemu. To tzw. efekt aureoli, który może prowadzić do iluzji kompetencji, ślepej delegacji odpowiedzialności i automatyzacji decyzji, nawet w środowiskach wysokiego ryzyka. Jak pokazują badania, interakcje człowieka z AI są głęboko zakorzenione w heurystykach, czyli uproszczonych mechanizmach myślenia, które mogą wzmacniać zaufanie lub je wypaczać. Z jednej strony, AI „brzmiąca jak ekspert” zyskuje autorytet, z drugiej – przejrzystość i nadmiar informacji mogą prowadzić do przeciążenia i spadku zaufania.

Kluczowe wnioski:

  • Zaufanie poznawcze nie wynika z wiedzy o algorytmie, lecz z percepcji jego kompetencji.
  • Forma komunikatu (język, ton, design) może nadpisywać treść.
  • Docenianie algorytmu prowadzi do preferencji AI nawet przy niższej trafności.
  • Przejrzystość musi być wyważona – zbyt dużo danych zniechęca, zbyt mało usypia czujność.
  • Nadmierna automatyzacja może prowadzić do błędów systemowych i utraty odpowiedzialności.

Referencje

  1. Rikard Rosenbacke, Cognitive Challenges in Human-AI Collaboration: A Study on Trust, Errors, and Heuristics in Clinical Decision-Making (PhD diss., Copenhagen Business School, 2025), https://research-api.cbs.dk/ws/portalfiles/portal/112321917/rikard_rosenbacke_phd_series_04_2025.pdf 
  2. Buçinca, Zana, Maja Barbara Malaya i Krzysztof Z. Gajos, To Trust or to Think: Cognitive Forcing Functions Can Reduce Overreliance on AI in AI-assisted Decision-making (Proc. ACM Hum.-Comput. Interact., Vol. 5, No. CSCW1, Article 188, April 2021), To Trust or to Think: Cognitive Forcing Functions Can Reduce Overreliance on AI in AI-assisted Decision-making
  3. Cathy Yang Liu, Xitong Li i Sangseok You, In AI We Trust?, HEC Paris, 8 września 2022, https://www.hec.edu/en/knowledge/articles/ai-we-trust 

O autorach
Tematy

Może Cię zainteresować

Czy model biznesowy Dubaju przetrwa konfrontację z irańskimi dronami?

Odwet Iranu na ataki amerykańskie i izraelskie brutalnie narusza fundamenty, na których Zjednoczone Emiraty Arabskie zbudowały swoją potęgę gospodarczą. Dla przedsiębiorców, inwestorów i turystów staje się jasne, że wstrząsy geopolityczne przestały omijać terytoria dotychczas uważane za strefy wolne od ryzyka. Konflikt zbrojny kruszy filary dubajskiego cudu gospodarczego i wymusza rewizję strategii inwestycyjnych w regionie.

Multimedia
Wyzwania HR 2026: AI vs juniorzy, powrót do biur i kryzys zaangażowania
Pracujemy wydajniej niż kiedykolwiek, jednak polskie firmy mierzą się z niebezpiecznym paradoksem: nasze zaangażowanie spada. Czy w obliczu rewolucji AI, która zaczyna „pożerać” juniorów, oraz planowanego przez prezesów powrotu do biur, liderzy zdołają odzyskać zaufanie swoich zespołów? Zapraszamy na rozmowę Pawła Kubisiaka z Dominiką Krysińską o tym, jak HR przechodzi transformację z działu „dopieszczania pracowników” w twardego partnera strategicznego zarządu.
Ronnie Chatterji z OpenAI: dlaczego na zyski z AI musimy jeszcze poczekać?

Ronnie Chatterji, główny ekonomista OpenAI i były doradca Białego Domu, rzuca nowe światło na mechanizmy, które  zmieniają globalną produktywność. W rozmowie z Samem Ransbothamem wyjaśnia, dlaczego obecne inwestycje w czipy to zaledwie wstęp do rewolucji, po której AI stanie się silnikiem napędzającym naukę i codzienny biznes. Poznaj perspektywę człowieka, który łączy świat wielkiej polityki z technologiczną awangardą Doliny Krzemowej.

Agenci, Roboty i My: Jak AI zmienia oblicze pracy

Sztuczna inteligencja to już nie tylko technologiczna nowinka, ale najważniejszy temat w agendzie każdego nowoczesnego zarządu. Dowiedz się, dlaczego ponad połowa naszych codziennych zadań może wkrótce zostać zautomatyzowana, a mimo to ludzkie kompetencje, intuicja i empatia staną się bardziej pożądane niż kiedykolwiek wcześniej<span data-path-to-node=”2,11″>. Poznaj kluczowe wnioski z najnowszego raportu McKinsey Global Institute i sprawdź, jak skutecznie poprowadzić swoją organizację przez tę bezprecedensową transformację, budując innowacyjne partnerstwo między człowiekiem a algorytmemde=”2,15″>.

orkiestrator Orkiestrator – nowa rola menedżera w erze agentowej

W 2026 roku rola menedżera przestaje ograniczać się do zarządzania ludźmi. Lider staje się orkiestratorem pracy ludzi i autonomicznych systemów AI, projektując zdolność organizacji do skutecznej realizacji strategii. Przyszłość przywództwa to balans między technologiczną wydajnością a ludzkim sensem pracy.

Banda dupków: jak marki mogą skorzystać na wykorzystaniu obelg

W świecie marketingu, gdzie bezpieczne i wygładzone przekazy stają się tłem, niektóre marki decydują się na krok skrajnie ryzykowny: przejęcie pejoratywnych określeń i przekucie ich w fundament swojej tożsamości. Najnowsze badania dowodzą, że proces odzyskiwania obelg może być potężnym katalizatorem lojalności, o ile liderzy biznesu zrozumieją psychologiczne mechanizmy stojące za tym zjawiskiem.

Nowy MITSMR: Planowanie scenariuszowe. Jak zbudować firmę odporną na jutro

Niepewność nie jest dziś „czynnikiem ryzyka” — jest środowiskiem pracy. Dlatego w nowym MIT SMR odwracamy logikę klasycznego planowania: zamiast szlifować jeden perfekcyjny scenariusz, uczymy budować gotowość na wiele wersji jutra. Pokazujemy, jak planowanie scenariuszowe wzmacnia strategiczną odporność, co zrobić, by strategia nie utknęła w silosach oraz jak udoskonalić prognozowanie dzięki wykorzystaniu AI.

Różne pokolenia, różne potrzeby. Jak wiek zmienia oczekiwania płacowe?

Czy „atrakcyjne wynagrodzenie” znaczy to samo dla absolwenta i doświadczonego eksperta? Dane z najnowszych raportów Randstad pokazują, że oczekiwania płacowe wyraźnie zmieniają się wraz z wiekiem, sytuacją życiową i doświadczeniem zawodowym. Firmy, które chcą skutecznie przyciągać i zatrzymywać talenty w 2026 roku, muszą odejść od jednolitej polityki wynagrodzeń i postawić na precyzyjne dopasowanie oferty do różnych pokoleń.

Premium
Zacznij zarabiać na retroinnowacjach

W świecie zdominowanym przez sztuczną inteligencję i cyfrowy nadmiar rośnie popyt na produkty, które łączą przeszłość z teraźniejszością. Od „głupich telefonów” po nowoczesne gramofony – konsumenci coraz częściej wybierają rozwiązania prostsze, trwalsze i bardziej autentyczne. Retroinnowacja staje się realną strategią wzrostu dla firm, które potrafią twórczo odświeżyć starsze technologie i dopasować je do współczesnych oczekiwań.

Architektura odporności

W świecie, w którym kryzysy eskalują szybciej niż procesy decyzyjne, przewagę daje nie perfekcyjny plan, lecz gotowość na wiele wariantów przyszłości. Redaktor naczelny wskazuje, że architektura odporności wymaga odejścia od sztywnego prognozowania na rzecz scenariuszowego myślenia, strategicznego foresightu i konsekwentnego wzmacniania wewnętrznych fundamentów organizacji.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!