Dołącz do grona liderów, którzy chcą więcej
Komunikacja
Magazyn (Nr 22, luty - marzec 2024)
Polska flaga

Etyka a AI w praktyce Unilevera: od polityki do wdrożenia

1 lutego 2024 13 min czytania
Zdjęcie Randy Bean - doradca dla firm z listy Fortune 1000 w zakresie przywództwa w obszarze danych i AI. Autor książki Fail Fast, Learn Faster: Lessons in Data-Driven Leadership in an Age of Disruption, Big Data, and AI (Wiley, 2021).
Randy Bean
Zdjęcie Thomas H. Davenport - Profesor informatyki i zarządzania w Babson College w Wellesley, w stanie Massachusetts, członek MIT Initiative on the Digital Economy (Inicjatywy MIT na rzecz Gospodarki Cyfrowej) oraz NewVantage Partners. Starszy doradca w Deloitte Analytics.
Thomas H. Davenport
Etyka a AI w praktyce Unilevera: od polityki do wdrożenia

Streszczenie: Unilever, globalny lider w produkcji dóbr konsumpcyjnych, wdrożył zaawansowane narzędzie sztucznej inteligencji (AI), mające na celu usprawnienie procesów operacyjnych i decyzyjnych w swojej strukturze organizacyjnej. Firma, kierując się zasadami odpowiedzialności społecznej i zrównoważonego rozwoju, powołała zespół odpowiedzialny za zbadanie praktycznych aspektów etycznego wykorzystania AI. W ramach tego przedsięwzięcia opracowano program działań, który obejmuje pięć kluczowych etapów: propagowanie znaczenia etyki w AI, tworzenie wewnętrznych procedur etycznych, dokumentowanie przypadków użycia AI, systematyczną ocenę tych przypadków oraz podejmowanie decyzji dotyczących ich akceptacji lub modyfikacji. Dzięki temu podejściu Unilever dąży do zapewnienia przejrzystości, bezstronności i sprawiedliwości w zastosowaniach sztucznej inteligencji, integrując te zasady z ogólną strategią zarządzania danymi i innowacjami cyfrowymi.

Pokaż więcej

Obecnie wiele dużych firm – globalnie ok. 70% – doszło do przekonania, że sztuczna inteligencja jest ważna, więc szuka zastosowań dla technologii w różnych obszarach swojej działalności. W większości przedsiębiorstwa te mają również świadomość, że zastosowanie AI ma wymiar etyczny i że muszą dopilnować, aby systemy, które tworzą lub wdrażają, były przejrzyste, bezstronne i sprawiedliwe.

Wiele przedsiębiorstw, które zajmują się etyczną stroną sztucznej inteligencji (AI), jest wciąż na początkowym etapie rozstrzygania tej kwestii. Niektóre nakłoniły swoich pracowników, aby w pracy nad użyciem i wykorzystaniem AI kierowali się zasadami etycznymi. Inne opracowały wstępny zbiór procedur służących nadzorowi nad AI. Większość firm nie zrobiła jednak nawet tego. Jak wynika z jednej z ostatnich ankiet, 73% amerykańskich menedżerów wyższego szczebla oświadczyło, że ich zdaniem wytyczne w sferze sztucznej inteligencji są ważne, ale tylko 6% z nich zadbało o ich nakreślenie.

Właściwy proces tworzenia etycznych podstaw funkcjonowania AI w przedsiębiorstwie powinien, według nas, obejmować pięć etapów:

  1. Etap kaznodziejstwa – przedstawiciele firmy propagują znaczenie etyki w sferze AI;

  2. Etap tworzenia procedur – firma obmyśla i zatwierdza wewnętrzne procedury etycznego podejścia do AI;

  3. Etap ewidencjonowania – firma zbiera dane na temat każdego przypadku użycia lub zastosowania AI (przy zastosowaniu takich metod jak karty modeli);

  4. Etap oceny – firma przeprowadza usystematyzowaną analizę każdego przypadku użycia (lub zleca ją zewnętrznemu partnerowi), aby ustalić, czy dany przypadek spełnia kryteria dotyczące etyki w sferze AI;

  5. Etap działania – firma albo akceptuje przypadek użycia w istniejącej wersji, albo odsyła przypadek do korekty przez zgłaszającego go „właściciela”, albo przypadek trafia do lamusa.

Dopiero na wyższych etapach – oceny i działania – firma jest w stanie faktycznie stwierdzić, czy zastosowania AI spełniają ustanowione przez nią kryteria w sferze przejrzystości, bezstronności i sprawiedliwości. Aby przystąpić do pracy nad tymi etapami, firma musi dysponować sporą liczbą projektów AI, procesów i systemów gromadzenia informacji wraz ze strukturami nadzoru służącymi podejmowaniu decyzji dotyczących konkretnych zastosowań. Wiele przedsiębiorstw nie spełnia jeszcze tych wstępnych warunków, ale w miarę osiągania przez te firmy większej dojrzałości w sferze AI i kładzenia na nią większego nacisku spełnienie tych warunków okaże się konieczne.

Wczesne procedury w Unileverze

Brytyjski producent paczkowanych dóbr konsumpcyjnych, firma Unilever, która ma w portfelu takie marki jak Dove, Seventh Generation i Ben & Jerry’s, od dawna stawia na społeczną odpowiedzialność i zrównoważony wpływ na środowisko naturalne. Niedawno firma wdrożyła narzędzie AI, które pozwala na radykalne usprawnienie operacji i procesów decyzyjnych w całej globalnej strukturze organizacyjnej. Jej komitet nadzoru, o nazwie Enterprise Data Executive, uznał, że firma może, bazując na swoich prężnych mechanizmach kontroli w zakresie prywatności, bezpieczeństwa i nadzoru, wbudować odpowiedzialne i etyczne sposoby użycia AI w swoje strategie w zakresie danych. Celem firmy było wykorzystanie napędzanych przez AI innowacji cyfrowych do maksymalizacji własnych zdolności, jak i wspierania społeczeństwa opartego na większej sprawiedliwości i równości. Unilever powołał zespół, którego zadaniem jest zbadanie, co ten cel oznaczał w praktyce, i opracowanie programu działań służących operacjonalizacji tego celu.

Algorytmy służące uczeniu maszynowemu są automatycznie analizowane, aby ustalić, czy nie dyskryminują jakiejkolwiek konkretnej grupy.

Firma zrealizowała już pięć opisanych powyżej etapów, ale patrząc wstecz, należy stwierdzić, że jej pierwszym krokiem było utworzenie zbioru różnych form polityki. Jedna z nich wskazywała na przykład, że jakakolwiek decyzja mająca znaczący wpływ na życie osoby fizycznej nie powinna być całkowicie zautomatyzowana i powinna być podjęta przez człowieka. Do innych przyjętych przez firmę zasad dotyczących AI należą zarządzenia: „Nigdy nie będziemy obwiniać systemu; za każdą decyzją musi stać pracownik naszej firmy” i „Zrobimy, co w naszej mocy, w celu systematycznego monitorowania modeli i wyników osiąganych przez AI, aby zapewnić, że utrzymuje ona swoją skuteczność”.

Członkowie komitetu szybko zdali sobie sprawę z tego, że opracowanie wyłącznie szerokiej polityki nie wystarczy do zapewnienia odpowiedzialnego rozwoju zastosowań AI. Realizacja procesu przyjęcia AI z pełnym przekonaniem i rzeczywiste uwolnienie jej pełnego potencjału wymagały prężnego ekosystemu narzędzi, usług i zasobów ludzkich, gwarantującego, że systemy AI będą funkcjonowały zgodnie z oczekiwaniami.

Członkowie komitetu wiedzieli również, że wiele systemów AI i systemów analitycznych funkcjonujących w firmie Unilever powstawało we współpracy z zewnętrznymi dostawcami oprogramowania i usług. Na przykład współpracujące z firmą agencje reklamowe często wykorzystywały oprogramowanie do zautomatyzowanego zakupu (programmatic buying) mediów, które decydowało o tym, jakie reklamy cyfrowe zamieścić w internecie i na nośnikach mobilnych. Zespół doszedł do wniosku, że w swoim podejściu do etyki w sferze AI musi uwzględniać zdolności pozyskiwane z zewnątrz.

Budowa sprawnego procesu zapewniania jakości AI

Na wczesnym etapie korzystania ze sztucznej inteligencji liderzy obszarów danych i AI w firmie Unilever zauważyli, że niektóre problemy związane z technologią w ogóle nie obejmują kwestii etycznych, ale dotyczą systemów, które nie były efektywne pod względem wykonywania zleconych im zadań. Giles Pavey, globalny dyrektor do spraw danych, który był główną osobą odpowiedzialną za etykę w sferze AI, wiedział, że był to istotny składnik każdego przypadku użycia. „Na przykład system prognozowania przepływów pieniężnych nie niesie ze sobą ryzyka dotyczącego sprawiedliwości lub stronniczości, ale może mu towarzyszyć ryzyko nieefektywności – powiedział. – Uznaliśmy, że ryzyko dotyczące skuteczności powinno być uwzględniane na równi z czynnikami ryzyka etycznego, jakie ewaluujemy”. Firma zaczęła używać szerokiego terminu „zapewnienie jakości AI” (AI assurance), obejmującego w ogólnym zarysie efektywność i etykę narzędzi AI. W procesie oceny zgodności z polityką zapewnienia jakości AI w firmie Unilever chodzi o to, aby zbadać każde nowe zastosowanie AI i określić jego nieodłączny poziom ryzyka, zarówno pod względem efektywności, jak i etyki. Firma korzystała już z dobrze zdefiniowanego podejścia do bezpieczeństwa informacyjnego i prywatności danych, więc jej celem było zastosowanie podobnego podejścia, zapewniającego, że żadne zastosowanie AI nie wejdzie do użytku, zanim nie zostanie ocenione i zatwierdzone. Ostateczną oznaką sukcesu byłoby zintegrowanie procesu zgodności z obszarami zgodności, które już zostały wdrożone, takimi jak ocena ryzyka związanego z prywatnością, bezpieczeństwem informacyjnym i procedurami w zakresie zaopatrzenia.

Debbie Cartledge, która podjęła się roli liderki strategii w dziedzinie danych i etyki AI, objaśniła nam proces, jaki przyjęła jej firma:

Kiedy planujemy wdrożenie nowego rozwiązania AI, pracownik Unilevera lub dostawcy rozwiązania proponuje w zarysie przypadek użycia i metodę, które poprzedzają opracowanie rozwiązania. Przypadek i metoda zostają ocenione wewnętrznie, przy czym bardziej złożone przypadki są oceniane manualnie przez zewnętrznych ekspertów. Osoba proponująca rozwiązanie jest później powiadamiana o potencjalnych czynnikach ryzyka etycznego i efektywnościowego, a także branych pod uwagę sposobach ich złagodzenia. Po opracowaniu rozwiązania AI Unilever lub firma zewnętrzna przeprowadza testy statystyczne, aby upewnić się, czy nie istnieją problemy dotyczące stronniczości lub sprawiedliwości i może zbadać system pod kątem jego skuteczności w osiąganiu celów. Spodziewamy się, że z biegiem czasu większość przypadków użycia będzie mogła być oceniana w całkowicie zautomatyzowany sposób na podstawie informacji dostarczanych przez osobę, która proponuje dane rozwiązanie.

W zależności od tego, w jakiej części firmy rozwiązanie AI będzie wykorzystane, mogą istnieć lokalne regulacje, których system musi przestrzegać. Na przykład sprawdzaniem życiorysów zawodowych kandydatów zajmują się obecnie wyłącznie ludzie. Gdyby to zadanie zostało w pełni zautomatyzowane, ocena rozwiązania mogłaby wykazać, że w pętli informacji zwrotnej musi pojawić się człowiek podejmujący ostateczne decyzje dotyczące tego, czy zaprosić kandydata na rozmowę kwalifikacyjną. Jeśli zastosowaniu AI towarzyszy poważne ryzyko, którego nie da się złagodzić, proces zapewnienia jakości AI odrzuca to rozwiązanie z tego powodu, że wartości, jakie wyznaje Unilever, wykluczają jego wdrożenie. Ostateczne decyzje dotyczące użycia AI są podejmowane przez radę złożoną z menedżerów wyższego szczebla z trzech działów: prawnego, zasobów ludzkich i danych i technologii.

Oto przykład: firma wynajmuje w domach handlowych powierzchnie, na których sprzedaje swoje marki kosmetyczne. Powstał projekt wykorzystania AI opartej na widzeniu komputerowym do automatycznego rejestrowania obecności ekspedientek na podstawie robionych przez nie każdego dnia zdjęć selfie. Dodatkowym ambitnym celem rozwiązania było sprawdzenie, czy ekspedientki dbają o właściwy wygląd. Za sprawą procesu zapewnienia jakości AI zespół projektowy wyszedł w swoim myśleniu poza kwestie regulacji, legalności i skuteczności, uwzględniając potencjalne implikacje w pełni zautomatyzowanego systemu. Członkowie zespołu zidentyfikowali potrzebę ludzkiego nadzoru nad sprawdzaniem zdjęć oznaczonych jako niespełniające wymogów i wzięciem odpowiedzialności za wszelkie wynikające stąd działania.

Współpraca z zewnętrznym partnerem, firmą Holistic AI Zewnętrznym partnerem Unilevera w procesie zapewnienia jakości AI jest firma z Londynu, Holistic AI. Jej założyciele, Emre Kazim i Adriano Koshiyama, współpracują z zespołami AI Unilevera od 2020 roku, a ich firma została oficjalnym partnerem Unilevera w 2021 roku.

Firma Holistic AI utworzyła platformę do zarządzania procesem oceny systemu zapewnienia jakości AI. W kontekście tego procesu „AI” jest szeroką kategorią, obejmującą wszelkie rodzaje prognozowania lub automatyzacji; ocenie podlega nawet arkusz kalkulacyjny Excela używany do klasyfikacji punktowej kandydatów do pracy w dziale HR. Zespół do spraw etyki danych w firmie Unilever używa tej platformy do przeglądu statusu projektów AI i może dzięki niej stwierdzić, które nowe przypadki użycia zostały przedłożone do oceny, czy informacje na ich temat są kompletne i jaki poziom ryzyka został im przypisany – poszczególne poziomy ryzyka symbolizują trzy kolory: czerwony, żółty (w Wielkiej Brytanii określany jako „bursztynowy”) i zielony.

Ostateczne decyzje dotyczące użycia AI są podejmowane przez radę złożoną z menedżerów wyższego szczebla z trzech działów: prawnego, zasobów ludzkich i danych i technologii.

Status rozwiązań objętych systemem odpowiadającym ulicznej sygnalizacji świetlnej jest oceniany na trzech etapach: selekcji metodą triażu, po dalszej analizie i po końcowym złagodzeniu ryzyka i zapewnieniu jakości AI. Na tym ostatnim etapie rating rozwiązań jest interpretowany w następujący sposób: kolor czerwony oznacza, że system AI nie jest zgodny ze standardami Unilevera i nie powinien być rozmieszczany; kolor żółty oznacza, że rozwiązanie AI jest obciążone pewnymi czynnikami ryzyka i że jego biznesowy „właściciel” musi być tych czynników świadomy i musi wziąć za nie odpowiedzialność; a kolor zielony wskazuje na to, że system AI nie obciąża procesu żadnym ryzykiem. Jak dotąd zaledwie garstka z kilkuset przypadków użycia AI w firmie Unilever została oznaczona kolorem czerwonym, w tym opisane wcześniej rozwiązanie w obszarze kosmetyków. Wszystkie osoby zgłaszające te nieliczne przypadki potrafiły rozwiązać zidentyfikowane problemy i przenieść swoje projekty na wyższy poziom, oznaczony kolorem żółtym.

Dla liderów projektów w sferze AI platforma jest tym miejscem, od którego zaczynają ocenę swoich rozwiązań. Przedkładają proponowany przypadek użycia, podając takie szczegóły, jak jego cel i uzasadnienie biznesowe, kto odpowiada za rozwiązanie w firmie Unilever, skład zespołu, użyte dane, rodzaj zastosowanej technologii AI, czy rozwiązanie jest opracowywane wewnętrznie czy przez zewnętrznego dostawcę, stopień autonomii i tak dalej. Platforma wykorzystuje te informacje do punktowej oceny rozwiązania pod względem towarzyszącego mu ryzyka. Do branych pod uwagę domen ryzyka należą: zdolność do objaśnienia projektu, solidność, skuteczność, stronniczość i prywatność. Algorytmy służące uczeniu maszynowemu są automatycznie analizowane, aby ustalić, czy nie dyskryminują jakiejkolwiek konkretnej grupy.

Coraz większy odsetek ewaluacji dokonywanych przy użyciu platformy firmy Holistic AI opiera się na proponowanym przez Unię Europejską akcie w sprawie sztucznej inteligencji, który również szereguje przypadki użycia AI zgodnie z trzema kategoriami ryzyka (nie do przyjęcia, wysokie i nie dość wysokie, by podlegało regulacji). Akt negocjują pomiędzy sobą kraje członkowskie UE, licząc na to, że osiągną porozumienie do końca 2023 roku. Kazim i Koshiyama stwierdzili, że chociaż ustawa będzie miała zastosowanie jedynie do firm europejskich, to Unilever i inne firmy prawdopodobnie zastosują ją w skali globalnej, tak jak zrobiły to z ogólnym rozporządzeniem UE w sprawie danych osobowych.

Kazim i Koshiyama liczą na to, że w przyszłości ich organizacja będzie w stanie agregować dane z różnych firm i stosować wobec nich metodę benchmarkingu. Ich oprogramowanie mogłoby oceniać: relację korzyści do kosztów, skuteczność zewnętrznych dostawców tego samego przypadku użycia i najbardziej efektywne podejścia do zakupów AI. Kazim i Koshiyama rozważają również krok polegający na upublicznieniu w niektórych przypadkach ratingów ryzyka i nawiązanie partnerskiej współpracy z firmą ubezpieczeniową w celu ubezpieczania przypadków użycia AI od pewnych rodzajów ryzyka.

Jesteśmy wciąż na wczesnym etapie zapewniania, że firmy będą stosowały etyczne podejścia do AI, ale to nie oznacza, że wystarczy wydawać oświadczenia i tworzyć procedury, które nie przekładają się na działania. Kwestia, czy rozwiązanie AI jest etyczne czy nie, będzie rozstrzygana przypadek po przypadku. Proces zapewnienia jakości AI w firmie Unilever i jej partnerstwo z firmą Holistic AI w celu ewaluacji każdego przypadku użycia pod względem poziomu ryzyka etycznego są obecnie jedynym sposobem zapewniającym, że systemy AI będą zestrojone z interesem i dobrostanem człowieka.

O autorach
Tematy

Może Cię zainteresować

Jak dzięki agile 6-krotnie skrócono czas wdrożenia produktów

Przykład Kraft Heinz pokazuje, że największym hamulcem organizacji często nie są ludzie, lecz sposób, w jaki firma podejmuje decyzje, ustala priorytety i rozlicza zespoły. Carolina Wosiack opowiada, jak dzięki zmianie systemu pracy firma skróciła wdrażanie produktów z 36 miesięcy do 6 i zbudowała model, który przełożył się na wymierne wyniki biznesowe.

Multimedia
Lider, który zawsze ma rację, psuje firmę.  Czy Twoje ego też blokuje rozwój?

Silny lider potrafi rozwijać firmę, ale gdy ster przejmuje ego, organizacja zaczyna płacić za to wysoką cenę. W najnowszym podcaście MITSMR Paweł Kubisiak rozmawia z Izabelą Stachurską o tym, jak ego lidera wpływa na decyzje, atmosferę w zespole i gotowość ludzi do mówienia prawdy. To rozmowa o konflikcie, który nie zawsze wybucha głośno — czasem objawia się ciszą, pozorną zgodą i brakiem odwagi. Odcinek pokazuje, gdzie kończy się pewność siebie, a zaczyna styl zarządzania, który osłabia firmę.

work as a stream w organizacji Jak skalować firmę, zachowując jej twardy rdzeń

Czy firma może rosnąć bez zwiększania liczby etatów? Coraz więcej organizacji odkrywa model work as a stream, w którym praca staje się płynnym strumieniem zadań, a menedżerowie – orkiestratorami kompetencji wewnętrznych i zewnętrznych.

Nowa wizja społecznej funkcji przedsiębiorstwa. 7 lekcji od firmy Aboca

Włoska firma farmaceutyczna w wyjątkowy sposób łączy badania naukowe z unikalną kulturą tworząc innowacyjny model organizacyjny zorientowany na przyszłość. Spółka założona ponad czterdzieści lat temu z myślą o poszukiwaniu w naturze rozwiązań dla zdrowia człowieka, skutecznie przekształciła swój początkowy intuicyjny pomysł w strategiczną wizję. Opierając się na przekonaniu, że przedsiębiorstwo pełni funkcję społeczną i powinno wytwarzać nie tylko zyski, ale także wartość dla środowiska, kultury oraz ludzi, Aboca stała się europejskim liderem w produkcji wyrobów medycznych na bazie substancji naturalnych posiadającym oddziały w 24 krajach i zatrudniającym prawie 2000 pracowników.

Zysk nie zapłaci faktur ani wynagrodzeń, czyli dlaczego płynność jest ważniejsza niż wynik finansowy

Dodatni wynik finansowy nie gwarantuje stabilności przedsiębiorstwa. Firma może wykazywać zysk, a jednocześnie nie mieć środków na wypłaty czy regulowanie zobowiązań. Kluczowe znaczenie ma płynność finansowa – zdolność do bieżącego zarządzania przepływami pieniężnymi. Zrozumienie różnicy między zyskiem księgowym a realną gotówką pozwala uniknąć jednej z najczęstszych pułapek zarządzania finansami.

Oscary w cieniu (lub blasku) AI: jak Hollywood testuje sztuczną inteligencję

W minionym tygodniu Netflix  ogłosił przejęcie InterPositive, startupu założonego przez Bena Afflecka,  zajmującego się sztuczną inteligencją. Ta transakcja sugeruje, że w Hollywood umiejętność wykorzystania AI staje się równie ważna co scenariusz. Czy czeka nas „AI tsunami”, czy raczej bolesne zderzenie z oporem odbiorców? Branża rozrywkowa niesie ze sobą lekcje, które warto odrobić przed nadchodzącym rozdaniem Oscarów.

kompetencje przyszłości AI Czego AI nie zrobi za człowieka? Poznaj 5 kompetencji, które stają się kluczowe

AI wyliczy prawdopodobieństwo sukcesu, ale to człowiek podejmuje ryzyko, by go osiągnąć. Czy w świecie zdominowanym przez algorytmy Twoje umiejętności stają się przeżytkiem, czy kluczowym atutem? Poznaj model EPOCH i dowiedz się, dlaczego w erze AI to „ludzki pierwiastek” stanie się najtwardszą z posiadanych przez liderów kompetencji.

Czy model biznesowy Dubaju przetrwa konfrontację z irańskimi dronami?

Odwet Iranu na ataki amerykańskie i izraelskie brutalnie narusza fundamenty, na których Zjednoczone Emiraty Arabskie zbudowały swoją potęgę gospodarczą. Dla przedsiębiorców, inwestorów i turystów staje się jasne, że wstrząsy geopolityczne przestały omijać terytoria dotychczas uważane za strefy wolne od ryzyka. Konflikt zbrojny kruszy filary dubajskiego cudu gospodarczego i wymusza rewizję strategii inwestycyjnych w regionie.

Multimedia
Wyzwania HR 2026: AI vs juniorzy, powrót do biur i kryzys zaangażowania
Pracujemy wydajniej niż kiedykolwiek, jednak polskie firmy mierzą się z niebezpiecznym paradoksem: nasze zaangażowanie spada. Czy w obliczu rewolucji AI, która zaczyna „pożerać” juniorów, oraz planowanego przez prezesów powrotu do biur, liderzy zdołają odzyskać zaufanie swoich zespołów? Zapraszamy na rozmowę Pawła Kubisiaka z Dominiką Krysińską o tym, jak HR przechodzi transformację z działu „dopieszczania pracowników” w twardego partnera strategicznego zarządu.
Ronnie Chatterji z OpenAI: dlaczego na zyski z AI musimy jeszcze poczekać?

Ronnie Chatterji, główny ekonomista OpenAI i były doradca Białego Domu, rzuca nowe światło na mechanizmy, które  zmieniają globalną produktywność. W rozmowie z Samem Ransbothamem wyjaśnia, dlaczego obecne inwestycje w czipy to zaledwie wstęp do rewolucji, po której AI stanie się silnikiem napędzającym naukę i codzienny biznes. Poznaj perspektywę człowieka, który łączy świat wielkiej polityki z technologiczną awangardą Doliny Krzemowej.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!