Reklama
Dołącz do liderów przyszłości i zdobądź przewagę! Sprawdź najnowszą ofertę subskrypcji
BIZNES I TECHNOLOGIE

Sztuczna inteligencja pomoże pokonać hejt w sieci

9 czerwca 2020 11 min czytania
Zdjęcie Rafał Pikuła - Redaktor MIT Sloan Management Review Polska. 
Rafał Pikuła
Sztuczna inteligencja pomoże pokonać hejt w sieci

Technologiczni giganci, tacy jak Facebook czy Google, zajmują się usuwaniem obraźliwych treści, zamiast zapobiegać ich powstawaniu. Zdaniem Michała Wroczyńskiego, twórcy Samurai Labs, platformy walczącej z przemocą w sieci za pomocą sztucznej inteligencji, ważniejsze niż likwidacja szkód jest zapobieganie. Jego rozwiązanie – w odróżnieniu od dominujących trendów – nie opiera się na modelu statystycznym, a na lingwistyce.

Internet nie tylko „zmniejszył świat”, ale go dodatkowo „rozgadał”. Dzięki globalnej sieci komunikujemy się ze sobą. Mieszkaniec Hongkongu może spokojnie i szybko komunikować się z obywatelem USA. Z cyfrowej komunikacji korzystają także niemal wszystkie firmy. Niestety, możliwość wymiany myśli i opinii ma też swoją mroczną stronę: hejt. Mowa nienawiści to realne straty – nie tylko wizerunkowe – dla wielu biznesów.

Wirtualny hejt, realne straty

Ilu klientów straci firma X, jeśli na jej facebookowym profilu użytkownicy będą obrażani? Jak prowadzić firmowe konto na Twitterze, zdobywając nowych zainteresowanych, nie tonąc zarazem w bagnie nienawistnych komentarzy? Czy otwierać się na pełną komunikację, wiedząc, że poza potencjalnymi klientami trafimy na trolli? Jak walczyć z firmami, które żyją z hejtu?

To poważne pytania dzisiejszego biznesu. Okazuje się, że mowa nienawiści jest do pokonania. Potrzeba tylko dobrej woli i technologii. Oto historia biznesu znad Wisły, który może ugasić ten palący problem cyfrowego świata.

Student medycyny, który lubił język

Kwestiami języka i sztucznej inteligencji Michał Wroczyński zajmuje się już od lat 90. Jeszcze jako student medycyny założył koło sieci neuronowych. Gdy internet w Polsce dopiero się rozwijał i kojarzył z Neostradą, pracował nad automatycznymi czatami. Następnie we współpracy z Komendą Stołeczną Policji opracował system CERBER, służący do wychwytywania aktywności pedofilskiej na czatach.

„System CERBER był w pełni zautomatyzowany. Bot »prowadził« rozmowy i gdy trafiał na użytkownika, którego sposób komunikacji wskazywał, że może być pedofilem, wtedy do rozmowy dołączał człowiek. Skuteczność typowania pedofilów przez sztuczną inteligencję była na poziomie 90%. Sukces CERBERA sprawił, że nawiązaliśmy współpracę z Interpolem, a sam zrozumiałem, że metoda, którą wynaleźliśmy, jest właściwa” – opowiada Michał.

Więcej niż deep learning

Kolejnym krokiem w pracach nad technologią był ISPAD – system wykrywający agresję w Internecie. Kluczowe patenty stanowiące podwalinę obecnie rozwijanej technologii firma Wroczyńskiego uzyskała w Stanach Zjednoczonych. Doświadczenia wyniesione z Doliny Krzemowej pozwoliły na stworzenie Samurai Labs.

Na czym polega innowacja? Chodzi o zupełnie nowe podejście do rozumienia wypowiedzi. Prosta analiza danych może prowadzić do nadinterpretacji i przeregulowania. Standardowe sposoby analizy danych opierają się na metodach statystycznych i technologiach, takich jak deep learning i machine learning.

Czytanie bez zrozumienia

Systemy te (stosowane właśnie przez technologicznych gigantów) wykrywają wulgarne czy nieodpowiednie słowa, skupiając się na analizie słów kluczowych. Dla tego rodzaju sztucznej inteligencji zdanie: „Szkoda, że twoja matka nie zrobiła aborcji”, nie jest obraźliwe. Każde z użytych słów – „szkoda”; „matka”, „robić”, „aborcja” – nie jest obraźliwe.

Z drugiej strony taki tradycyjny system uzna za niewłaściwe np.: zdanie: „Rządowy program migracyjny jest gówniany. Nie ma planów ani pomysłów”, ponieważ obok siebie pojawi się słowo „migracja” i „gówno”, chociaż kontekstowo zdanie nie obraża, jest opinią dotyczącą działania rządu w zakresie problemu migracyjnego. Problemem tego systemu jest alarmizm: mówi, że jest mowa nienawiści, choć jej nie ma. Z drugiej strony zostawia takie wyrażenia, które faktycznie obrażają innych.

Chcesz zarabiać? Usuń hejt!

Jednym z segmentów, w których testuje się najnowsze rozwiązania AI dotyczące walki z mową nienawiści, jest e‑sport. Streaming rozgrywek to wielki biznes, który będzie tylko rosnąć (szacuje się, że w roku 2022 branża e‑sportowa osiągnie pułap 1,8 mld dol.). Wszystkim zależy więc, żeby liczba obserwujących czy współgrających nie spadała.

„Z naszych badań wynika, że blisko 22% użytkowników gier sieciowych opuszcza rozgrywkę, gdy jest słownie atakowana. A to realna strata dla dostawcy gry! Jeśli zablokujemy hejt, to zatrzymamy kasę dla firmy. To proste – mówi Michał i wyjaśnia sam mechanizm. – W większości gier działa publiczny czat, za pomocą którego komunikują się gracze czy oglądający. Nasz system działa na dwa sposoby. Albo publicznie upomina wulgarnego użytkownika, albo blokuje konkretną, niewłaściwą wypowiedź. Mowa nienawiści analizowana jest w czasie rzeczywistym. Dopiero gdy upomnienia nie zadziałają, to dany »napastnik« jest usuwany z gry” – opowiada Michał.

Epidemia hejtu

Podobne mechanizmy sprawdzą się nie tylko w e‑rozrywce. W czasie „epidemii hejtu” niemal każdemu zależy na walce z patologicznymi użytkownikami (no, chyba że ktoś zarabia na fałszywych i wulgarnych wypowiedziach). Mowa nienawiści to realny problem społeczny, który odciska piętno na życiu nastolatków, świecie polityki czy funkcjonowaniu firm.

Samurai Labs przygotowało mechanizm walczący z mową nienawiści na popularnym forum amerykańskim, gdzie udało się zmniejszyć hejt o 40%. Miarą sukcesu systemu było zaproszenie go do roli moderatora – to nie tylko gratyfikacja, ale potwierdzenie przejścia testu Turinga.

Od testu Turinga….

Firma Michał Wroczyńskiego od pewnego czasu współpracuje z Hate Lab, brytyjską firmą gromadzącą dane na temat mowy nienawiści. Badania przeprowadzone przez Samurai Labs wykazały, że 5% materiałów opublikowanych w mediach społecznościowych na temat Polaków w Wielkiej Brytanii ma negatywne lub obraźliwe konotacje. Algorytm Samurai Labs ma automatycznie analizować publikowane w nich treści, a w razie potrzeby blokować je i raportować do administratorów odpowiadających za dany portal czy serwis. Bez udziału człowieka.

Większość systemów wciąż opiera się na moderacji człowieka. Polega to na tym, że zgłoszony przez sztuczną inteligencję post, komentarz bądź wypowiedź analizowane są przez moderatora i usuwane. Czasami trwa to nawet 48 godzin, a w internecie to wieczność, tym bardziej że można zrobić screeny. Według idei Samurai Labs taki hejt nawet się nie pojawi, zostanie usunięty przed publikacją, a wszystkim zajmie się sztuczna inteligencja.

…do Tindera

„Jesteśmy na etapie testów w warunkach rzeczywistych i rozwoju naszego produktu. W najbliższym czasie planujemy przetestować rozwiązanie z naprawdę dużym partnerem. Możliwości jest wiele, poczynając od gamingu, a kończąc na aplikacjach randkowych. Tinder podaje, że spora część kobiet rezygnuje z korzystania z aplikacji, ponieważ spotyka się z przemocą słowną czy molestowaniem na tle seksualnym. Nasze rozwiązanie mogłoby blokować takie treści. Użytkowniczka nawet by nie zauważyła, że ktoś napisał do niej nieodpowiednią wiadomość lub zhejtował. Sam agresor dostałby stosowne ostrzeżenie” – opowiada Michał.

Mowa nienawiści: płynna granica

Oczywiście, takie działanie może kojarzyć się z cenzurą. Kryteria „obraźliwe czy dopuszczalne” jest płynna. Tu dużą rolę odgrywa sama społeczność. To, co w świecie gier komputerowych jest dopuszczalne, w aplikacji randkowej może być uznane za bardzo niestosowne. Rozwiązanie Samurai Labs dostosowuje się do danej społeczności i doskonale „rozumie”, co wypada, a czego nie wypada powiedzieć.

Na szczęście sztuczna inteligencja wciąż pozbawiona jest własnych poglądów i uprzedzeń, a w świecie, gdzie nie istnieją w pełni uniwersalne i idealne rozwiązania, wydaje się to najbardziej słusznym rozwiązaniem. Co więcej, użytkownik mógłby świadomie zdecydować, czy chce „wyłączyć” tego typu treści.

Gdzie w tym wszystkim jest Dolina Krzemowa?

W ubiegłym roku przesłuchiwany przez senackie komisje Mark Zuckerberg stwierdził, że Facebook potrzebuje aż 5 do 10 lat, żeby zbudować narzędzie AI umiejące sprawnie wychwytywać w postach niuanse językowe. Dziś nad bezpieczeństwem użytkowników platformy czuwa ponad 30 tys. osób, które wspierają automatyczne narzędzia do wyławiania i usuwania niepożądanych treści. Dlaczego giganci nie potrafią robić tego, co udało się Michałowi Wroczyńskiemu?

„Długo się nad tym zastanawiałem, dlaczego my to robimy, a giganci nie. Wydaje mi się, że wynika to z tego, że u Facebooka czy Google’a dominuje typowa dla wschodniego wybrzeża logika biznesowo‑technologiczna. Oni chcą zawsze robić rozwiązania uniwersalne, a język tak nie działa. To, co sprawdzi się w przypadku języka angielskiego, nie zadziała w przypadku języka polskiego czy japońskiego. Te języki mają inną gramatykę, a to kwestia budowy zdania jest kluczowa” – wyjaśnia Michał.

Czego nie rozumie native speaker

„Wpadliśmy na ten pomysł, bo… nie jesteśmy natywnymi użytkownikami języka angielskiego, mamy doświadczenie w nauce języka obcego. Uczymy więc system języka, tak jak sami uczyliśmy się w szkole, czyli z książek. Native speaker angielskiego nie myśli nad gramatyką, uczy naturalnie, poprzez naśladownictwo i powtarzanie. Tak też działa standardowa sztuczna inteligencja, tyle że zamiast naśladownictwa i powtarzania jest analiza słów. Nasze rozwiązanie opiera się na »książkowej« nauce języka obcego: jak budować zdania, znaczenia, układać konstrukcje ze słów” – tłumaczy CEO Samura Labs.

Noam Chomsky miał rację?

Metoda proponowana przez Samurai Labs wpisuje się w trend tzw. trzeciej fali sztucznej inteligencji (wg. klasyfikacji DARPA), która nie opiera się już wyłącznie na uczeniu statystycznym, ale także na wnioskowaniu na podstawie wiedzy językowej i eksperckiej. W kwestii rozumienia języka jest to powrót do idei, którą już w latach 50. i 60. głosił wybitny językoznawca Noam Chomsky, współtwórca gramatyki transformacyjno‑generatywnej. W wywiadzie dla magazynu „The Atlantic” w 2012 roku przekonywał, że rozwój AI poszedł w niewłaściwą stronę, ignorując wiedzę o tym, jak działa język.

„W świecie nowych technologii funkcjonuje wiele przekłamań i szkodliwych przekonań. W Dolinie Krzemowej wciąż zbyt dużą wiarę pokłada się w metody statystyczne, twierdząc, że machine learning jest w stanie rozwiązać wszelkie problemy. Oczywiście tego typu rozwiązania świetnie sprawdzają się w rozpoznawaniu obrazów czy tworzeniu modeli zakupowych, ale w kwestiach humanistycznych już nie do końca. Dlatego też w segmencie healthcare czy właśnie w dziedzinie rozumienia języka naturalnego szuka się nowych rozwiązań” – wyjaśnia Michał.

Kontekst ma znaczenie

Rozwiązania proponowane przez Samurai Labs, oparte na contextual models, kontestują metody, na których opiera się współczesna sztuczna inteligencja, ale ich celem nie jest żadna rewolucja. Celem na przyszłość – a może i marzeniem – jest uczynienie internetu bezpiecznym, gdzie każda społeczność może chronić swoje wartości i sposoby komunikacji. Bez hejtu czy przemocy słownej.

„Chętnie chronimy przed atakami nasze komputery i smartfony, zabezpieczamy się przed wirusami i złośliwym oprogramowaniem, a wciąż tak mało myślimy o cyberprzemocy. A to duże i nieustannie rosnące zagrożenie. Nie znam osoby aktywnej w internecie, której choć raz nie dotknęła mowa nienawiści czy przemoc słowna” – komentuje Michał.

Problem, który dopiero zauważamy

Według fundacji i‑SAFE ponad połowa młodzieży była nękana w sieci. Cyberbullying Research Center podaje, że 10‑20% nastolatków doświadcza tego regularnie. Z analizy Harford County Examiner wynika, że tylko 1 na 10 dzieci przyznaje się rodzicom, iż padło ofiarą cybernękania. Z mową nienawiści jest podobnie. Trzeba rozumieć, jak działa świat mediów społecznościowych, żeby wiedzieć, co tak naprawdę jest obraźliwe. Dziś można kogoś obrazić bądź zaatakować bez użycia słów powszechnie używanych za wulgarne.

Można szantażować i grozić w sposób tak zawoalowany, że oszuka się każdy, nawet najlepszy model statystyczny. Są dziesiątki synonimów oraz innych sposobów maskowania nienawiści skierowanej w stronę różnych grup społecznych. Gdy ktoś chce kogoś obrazić, to okazuje się, że kreatywność nie zna granic, dlatego tylko rozwiązania oparte na III fali sztucznej inteligencji mają szansę rozpoznać i przeciwdziałać tego typu zagrożeniom.

Hejt. Eufemizmy, metafory, aliteracje

„Mam dla ciebie solidny sznur i całkiem przyjemne drzewo” brzmi niewinnie tylko dla komputera. Albo dla kogoś pozbawionego elementarnych zdolności językowych. Jednak to czysty hejt.

A wcale nie będzie łatwiej. Trzeba rozumieć, jak działa społecznościowy świat, żeby wiedzieć, co tak naprawdę jest obraźliwe. Dziś można kogoś obrazić lub zaatakować bez użycia słów powszechnie używanych za wulgarne czy bez gróźb. Istnieją dziesiątki synonimów oraz innych sposobów maskowania nienawiści skierowanej w stronę różnych grup społecznych. Gdy ktoś chce kogoś obrazić, to okazuje się nierzadko, że kreatywność nie ma granic**.**

Eufemizmy, metafory, aliteracje – standardowe rozwiązania sztucznej inteligencji już sobie z tym nie radzą. Nie potrzeba jednak tutaj poetów czy (tylko) lingwistów, wystarczy programista, który faktycznie rozumie, że „granice języka są granicami świata”, jak to mawiał Ludwig Wittgenstein.

O autorach
Tematy

Może Cię zainteresować

Multimedia
Jak zaplanować swoją karierę. Rozmowa z Sergiuszem Trzeciakiem

Każda kariera jest drogą indywidualną i nikt nie zna uniwersalnego przepisu na sukces. Nie można skopiować czyjejś kariery i nałożyć na własne życie. Ale jedno jest pewne: większe szanse na sukces mają te osoby, które przemyślą i dobrze zaplanują swoją drogę zawodową.

Multimedia
LIMITY AI: Czy AI naprawdę odbiera pracę programistom?

W szóstym odcinku „Limitów AI” Iwo Zmyślony rozmawia z Wiktorem Żołnowskim (Co-CEO i Co-Founder Pragmatic Coders) o transformacji rynku IT i roli, jaką odgrywa w niej sztuczna inteligencja. Dlaczego polskie firmy zwalniają programistów? Czy ten trend się utrzyma? Czy mamy już do czynienia z krachem, czy jedynie z korektą? Z czego to się bierze i na czym właściwie polega? Do jakiego stopnia to zasługa AI, a do jakiego tańszej siły roboczej z Wietnamu, Meksyku, Egiptu, Argentyny czy Indii? Jak te zmiany wpływają na pracę programisty? Ile jest warta ta praca? Jakiej pracy biznes przestaje potrzebować, a jakiej poszukuje i nie może znaleźć? Odpowiedzi na te pytania znajdziesz w załączonym podcaście.

Cyberbezpieczeństwo w epoce AI: Polska na cyfrowej krawędzi

Tylko 3% firm w Polsce osiągnęło pełną gotowość na cyberzagrożenia – alarmuje najnowszy raport Cisco. Sztuczna inteligencja staje się nie tylko narzędziem wzrostu, ale też źródłem coraz bardziej wyrafinowanych zagrożeń, polski sektor biznesu balansuje na granicy cyfrowej odporności. Czy liderzy są gotowi spojrzeć prawdzie w oczy?

Zielone wskaźniki mogą być powodem do niepokoju. Dlaczego liderzy powinni się martwić, gdy widzą tylko pozytywne wyniki?

Czy rosnące wskaźniki na prezentacji wyników firmy rzeczywiście zawsze są powodem do radości? Niekoniecznie. Jeśli pojawiają się zbyt często, mogą świadczyć nie o wyjątkowo korzystnej passie, ale o presji dostarczania pozytywnych wiadomości przełożonym. Zamiecione pod dywan problemy jednak prędzej czy później wyjdą na jaw.

Pozytywne wyniki napawają optymizmem. Jeśli jednak pojawiają się zbyt często, powinny stanowić sygnał alarmowy. Czy koniunktura może być bowiem nieprzerwanie korzystna? Jeśli zbyt długo wszystkie wewnętrzne wskaźniki rosną, warto się nad nimi pochylić. Z doświadczeń renomowanej firmy consultingowej Bain & Company wynika, że aż 70% programów transformacji organizacyjnej kończy się fiaskiem. Bardzo często zdarza się tak, że wszystkie założone cele pozornie są realizowane, a dopiero pod koniec projektu wychodzą na jaw mankamenty. Aby uniknąć takich sytuacji, trzeba dokładnie zbadać źródło błędów.

Multimedia
ZDROWIE LIDERA: Zarządzasz firmą. Ale czy zarządzasz swoim zdrowiem?

Codzienność Szpitalnego Oddziału Ratunkowego potrafi być brutalnym lustrem stylu życia liderów. Klaudia Knapik rozmawia z dr Anną Słowikowską – kardiolożką, która zderza mity o zdrowiu z faktami i opowiada o pacjentach, którzy nie zdążyli… wysłać ostatniego maila. To rozmowa o sercu – dosłownie i w przenośni. Dla każdego, kto żyje intensywnie i chce żyć długo.

płaska struktura organizacyjna Ludzie podążają za strukturą: jak mniejsza hierarchia zmienia miejsce pracy

Przejście na samoorganizujące się zespoły i danie większej autonomii pracownikom skutkuje większym zaangażowaniem i lepszymi wynikami. Jednak nie każdemu pracownikowi odpowiada taka zmiana. Menedżerowie coraz częściej dostrzegają, że sposób organizacji firmy wpływa na jej wyniki, dlatego regularnie modyfikują strukturę, licząc na poprawę efektów. Znacznie mniej uwagi poświęca się jednak temu, jak takie zmiany oddziałują na samych pracowników.

Abstrakcyjna ilustracja symbolizująca przywództwo w erze AI: po lewej – chłodne, geometryczne wzory przypominające dane i algorytmy; po prawej – ciepłe, organiczne formy nawiązujące do ludzkiej intuicji. Centralny punkt styku sugeruje integrację logiki i emocji w kontekście sztucznej inteligencji. Lider w erze AI: jak zachować ludzką przewagę w świecie algorytmów

Między AI a ludzką kreatywnością

Kreatywność, wyobraźnia, humor – dotąd uznawane za wyłącznie ludzkie – dziś są imitowane przez sztuczną inteligencję, stawiając fundamentalne pytania o przywództwo w erze AI. Sztuczna inteligencja generuje teksty, obrazy, muzykę, a nawet żarty. Czy oznacza to, że maszyny dorównały człowiekowi także w jego najbardziej subtelnych umiejętnościach?

Bob Mankoff, rysownik magazynu „The New Yorker”, uważa, że nie. Jego zdaniem humor nie rodzi się z danych, lecz z emocji, świadomości własnej niedoskonałości i wrażliwości na kontekst. AI może symulować humor, lecz nie rozumie jego źródła.

To właśnie napięcie – pomiędzy potęgą obliczeniową a nieuchwytną ludzką intuicją – stawia liderów przed istotnymi pytaniami: gdzie kończy się autentyczna twórczość człowieka, a zaczyna jej algorytmiczna symulacja? Jak zarządzać w rzeczywistości, w której inteligencja staje się sztuczna, ale autentyczne przywództwo nadal wymaga człowieka?

Ludzka przewaga: humor, empatia, kreatywność

<!– wp:paragraph –>

W czasach postępującej automatyzacji, paradoksalnie to właśnie cechy głęboko ludzkie – humor, empatia i kreatywność – stają się zasobami o kluczowym znaczeniu dla liderów.

Zdolności metapoznawcze w budowaniu przewagi konkurencyjnej Od tych kompetencji zależy wygrana w dobie AI

Temat rozwoju generatywnej sztucznej inteligencji nie traci na popularności. Rewolucja AI wciąż postępuje. Choć GenAI zyskało zarówno zwolenników, jak i sceptyków, korzystanie z niej nie jest już kwestią wyboru. Stało się koniecznością. Jak uzyskać przewagę w tym obszarze? Kluczem do sukcesu okazuje się nie sam dostęp do technologii, lecz umiejętność właściwego jej wykorzystywania. Na jakie kompetencje zatem postawić?

Wiele organizacji popełnia ten sam błąd. Wdraża narzędzia oparte na AI z przekonaniem, że sam fakt ich wprowadzenia nie wystarczy, by zwiększyć efektywność pracy. Tymczasem problem nie leży w samej technologii, lecz w tym, jak ludzie potrafią ją wykorzystywać. Jest to podobna sytuacja do tej z początku epoki cyfrowej. Obsługa komputera, która była wtedy kluczową kompetencją, wkrótce stała się podstawą. Podobnie dziś samo sprawne posługiwanie się narzędziem AI to dopiero początek. Rzeczywista przewaga wynika ze zdolności łączenia technologii z głębokim rozumieniem potrzeb biznesowych i otoczenia. Zdaniem czołowych ekspertów, przewagę konkurencyjną osiągną organizacje, które zainwestują nie tylko w technologię, lecz także w umiejętności metapoznawcze. Chodzi o zdolność do analizy, interpretacji, krytycznego osądu i dynamicznej współpracy z AI.

Trzeba zmienić sposób myślenia o AI, stawiając w centrum umiejętności metapoznawcze

Osiągnięcie sukcesu w dobie generatywnej AI wymaga zmiany sposobu myślenia o tej technologii. Nie wystarczy wiedzieć, jak używać nowego narzędzia. Trzeba też rozumieć, po co to robić, kiedy i czy w ogóle warto. Ta transformacja musi się zacząć od liderów, którzy wytyczą drogę dla reszty organizacji. Prezesi i członkowie zarządów muszą zdać sobie sprawę, że w większości zadań AI nie zastępuje ludzkiej pracy, lecz ją uzupełnia. Przykładowo, przy sprzedaży skomplikowanych usług, takich jak ubezpieczenia bądź rozwiązania finansowe, ważne są relacje międzyludzkie i wzajemne zaufanie. AI nie powinna wypierać tych kompetencji, lecz wzmacniać je, by ułatwić komunikację.

Trzy kluczowe wnioski na temat postaw pracowników wobec elastyczności w pracy

Potrzeby pracowników są zróżnicowane, podobnie jak ich preferencje dotyczące miejsca i czasu wykonywania obowiązków zawodowych. Pięć lat po masowym przejściu na pracę zdalną – i w obliczu rosnącej liczby nakazów powrotu do biur – jakie są obecne nastroje pracowników wobec elastycznych form zatrudnienia? Wyniki naszych badań rzucają światło na to, jak bardzo pracownicy w różnym wieku cenią sobie elastyczność.

nowe spojrzenie na wzrost gospodarczy Nowe spojrzenie na wzrost gospodarczy

Kwestionowanie przekonania, że przedsiębiorstwa muszą nieustannie się rozwijać, odsłania nowe ścieżki prowadzące do odporności i zrównoważonego rozwoju.

Karl-Johan Perrson, prezes zarządu i były dyrektor generalny H&M, zadał kiedyś pytanie: „Co by się stało, gdybyśmy wszyscy konsumowali o 20% mniej? Uważam, że oznaczałoby to katastrofę. 20% mniej miejsc pracy, 20% mniej wpływów podatkowych, 20% mniej pieniędzy przeznaczanych na szkoły, opiekę zdrowotną czy drogi. Światowa gospodarka uległaby załamaniu. Jestem głęboko przekonany, że to właśnie wzrost gospodarczy sprawił, iż świat jest dzisiaj lepszym miejscem niż dwie dekady temu. A za kolejne 20 lat będzie jeszcze lepszym”.

Czy rzeczywiście tak jest? Jeśli tak, to stoimy przed problemem, który J.B. MacKinnon określa mianem „dylematu konsumenta”. W swojej książce The Day the World Stops Shopping [Dzień, w którym świat przestanie kupować] stwierdza: „Stan planety jasno pokazuje, że konsumujemy zbyt wiele. W samej Ameryce Północnej zużywamy zasoby Ziemi pięciokrotnie szybciej, niż są one w stanie się odnowić. Pomimo naszych wysiłków podejmowanych w celu »zazielenienia« konsumpcji – poprzez recykling, poprawę efektywności energetycznej czy wykorzystanie energii słonecznej – globalna emisja dwutlenku węgla wciąż nie maleje. Ekonomia nakazuje nam jednak nieustannie zwiększać konsumpcję. Wiek XXI uwypuklił ten kluczowy wniosek: musimy przestać kupować”.

Problem polega na założeniu, lansowanym w edukacji biznesowej, że gospodarka może i musi stale rosnąć – założeniu, które przenika strategie korporacyjne, nakazując firmom nieustanny rozwój pod groźbą utraty znaczenia na rynku. Jednak ciągły wzrost gospodarczy jest niemożliwy, a rozpowszechniony dogmat, że wzrost jest warunkiem koniecznym dla ludzkiego dobrobytu, tworzy pułapkę, z której wielu nie dostrzega drogi wyjścia. Jak pisze Paul Farrell w „The Wall Street Journal”: „Jesteśmy uzależnieni od mitu nieustającego wzrostu gospodarczego – mitu, który zabija Amerykę”. Dlatego edukacja biznesowa powinna zacząć uwzględniać ograniczenia wzrostu oraz pokazywać różne jego modele.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Newsletter

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!