Reklama
Dołącz do liderów przyszłości i zdobądź przewagę! Sprawdź najnowszą ofertę subskrypcji
Digitalizacja

Organizacja 2.0: firma bez barier

1 grudnia 2009 22 min czytania
Paula Wąsowska
Antoni Bielewicz
Organizacja 2.0: firma bez barier

Upowszechnienie nowych technologii informatycznych i komunikacyjnych prowadzi do stopniowego przekształcania się już nie tylko pracy indywidualnej, ale także struktur i pryncypiów organizacyjnych.

Kilka miesięcy temu grupa uznanych naukowców, prezesów firm, konsultantów, przedsiębiorców i menedżerów, działająca pod wodzą Gary’ego Hamela, przedstawiła na łamach Harvard Business Review 25 najpilniejszych wyzwań stojących dziś przed dziedziną zarządzaniaIndeks górny 1. Wśród nich co najmniej trzy – ukształtowanie na nowo firmy i rozbicie jej na części, zapewnienie demokratycznego dostępu do informacji, utworzenie wewnętrznych rynków pomysłów, talentów i zasobów – dotyczyły konieczności przekształceń tradycyjnych, silosowych struktur organizacyjnych. Zmiany te stają się dziś możliwe dzięki upowszechnieniu internetu oraz nowej architektury i nowych modeli wymiany informacji. Pozwalają na zwiększenie elastyczności wykorzystywanych rozwiązań IT, znoszą bariery w komunikacji wewnętrznej i zewnętrznej, przyczyniając się tym samym do przemodelowania struktury współczesnych organizacji.

System jak usługa

Ostatnie kilkadziesiąt lat to okres dynamicznego rozwoju technologii informatycznych. Ich rosnący potencjał sprawił, że nowoczesne firmy zaczęły traktować IT jako coraz istotniejszy czynnik swojego sukcesu rynkowego. Rozwój rozwiązań informatycznych odbywał się jednak przede wszystkim w obrębie przedsiębiorstw. Z czasem stało się to jednym z podstawowych ograniczeń ich wzrostu, gdyż integracja systemów zarówno wewnątrz organizacji, jak i pomiędzy podmiotami wchodzącymi w skład łańcucha wartości stawała się coraz bardziej pracochłonna i kosztowna.

Pojawienie się nowego kanału wymiany danych, czyli internetu, nasiliło potrzebę integracji korporacyjnych sieci i systemów informatycznych, a także włączenie w ten obieg konsumentów. Doprowadziło także do powstania nowych trendów w rozwoju architektury systemów i modeli wymiany informacji. Trzy najważniejsze z nich to: upowszechnienie architektury systemów informatycznych, tzw. architektury zorientowanej na usługi (Service Oriented Architecture – SOA), opartej na podstawowych komponentach – usługach webowych (Web Services); pojawienie się modelu dostarczania rozwiązań technologicznych, określanego mianem cloud computing; rozwój modelu komunikacji, wykorzystującego narzędzia do porozumiewania się w internecie, określane mianem Web 2.0, a w przypadku komunikacji biznesowej – Enterprise 2.0Indeks górny a.

Architektura zorientowana na usługi (SOA). Rozwój architektury SOA jest wynikiem upowszechnienia nowych koncepcji dotyczących wymiany komunikatów pomiędzy systemami informatycznymi. Ich efektem jest popularyzacja nowego, praktyczniejszego podziału funkcjonalnego systemów informatycznych na usługi webowe, będące wiernym odzwierciedleniem przebiegu procesów w organizacji. Ten pragmatyczny i intuicyjny podział, sprawiający, że projektowanie systemów informatycznych zaczyna przypominać tworzenie nowych budowli z gotowego zestawu klocków, prowadzi do fundamentalnych zmian w organizacji.

Po pierwsze, ze względu na zastąpienie dotychczasowych, skomplikowanych i abstrakcyjnych dla nieprofesjonalnych użytkowników funkcji podziałem na usługi webowe, odzwierciedlające procesy biznesowe, uproszczeniu ulega proces projektowania aplikacji. Dzięki temu modelowaniem nowych usług w systemach informatycznych mogą zająć się analitycy biznesowi i osoby orientujące się w firmowych procesach, a nie tylko wysoko wyspecjalizowani programiści. Dzięki specjalnym, uproszczonym schematom i standaryzacji mogą dowolnie modelować i poprawiać procesy, układając nowe z istniejącego zbioru usług webowych. To przyspiesza i skraca proces powstawania systemów informatycznych. Prowadzi także do zasypania podziału na „informatykę”, a więc dział zajmujący się tworzeniem i utrzymaniem oprogramowania, i „biznes”, czyli resztę organizacji, której wizje, poprzez żmudną współpracę z „informatyką”, znajdują lepsze lub gorsze odzwierciedlenie w systemach IT przedsiębiorstwa. Podział ten był przez dekady źródłem wielu nieporozumień i generował ogromne koszty wynikające przede wszystkim z braku odpowiedniej komunikacji co do wzajemnych oczekiwań względem tworzonych rozwiązań informatycznych.

Po drugie, stworzenie nowej, bazującej na procesach biznesowych przedsiębiorstwa, architektury systemów ułatwia integrację wykorzystywanych w firmie rozwiązań informatycznych. Projektujący nową usługę webową w systemie mogą odwołać się do funkcji wspierających przebieg procesu w innych, już wdrożonych aplikacjach i w łatwy sposób zintegrować ją z funkcjami pozostałych systemów. Pozwala to na ponowne wykorzystanie już raz wdrożonych systemów i usług (tzw. re‑używalność). Obniża to koszty utrzymania rozwiązań IT w przedsiębiorstwie. Umożliwia także ich stopniową modernizację. W miarę „wydobywania” i integracji funkcji zaimplementowanych w starych systemach stają się one częścią zupełnie nowych rozwiązań, oderwanych od często archaicznych platform sprzętowo‑systemowych, na których pierwotnie zostały wdrożone.

Model dostarczania rozwiązań technologicznych (cloud computing). Upowszechnienie nowej oferty w zakresie dostarczania rozwiązań IT odbiorcom korporacyjnym jest następstwem globalnego wzrostu przepustowości łączy internetowych i trendów rynkowych. Łączy się to, z jednej strony, z silnym spadkiem inwestycji w rozwiązania informatyczne po pęknięciu „bańki internetowej”, a z drugiej – z rosnącym rozproszeniem geograficznym dostawców nowoczesnych rozwiązań IT i pojawieniem się na biznesowej mapie nowych, silnych ośrodków takich jak Indie czy Europa Środkowo‑Wschodnia. Koncepcja określana terminem cloud computing (dosłownie „przetwarzanie w chmurach”) postuluje zerwanie z obowiązującym do tej pory modelem wykorzystania zasobów informatycznych, zakładającym zakup, wdrożenie i instalację rozwiązania IT (oprogramowania wraz ze sprzętem) w przedsiębiorstwie. Zamiast tego proponuje wykorzystanie potrzebnych zasobów informatycznych: systemów lub ich poszczególnych funkcji i mocy procesorów oraz pamięci, w formie usługi dostępnej przez internet (niejako „w chmurach”, gdyż użytkownicy nie muszą znać fizycznego miejsca instalacji systemu lub przechowywania danych). W praktyce oznacza to, że standaryzowane rozwiązania informatyczne stają się powszechnie dostępną usługą (utility), taką jak dostęp do energii elektrycznejIndeks górny 2. Uwolnienie przedsiębiorstw od konieczności wdrożenia i instalacji rozwiązań informatycznych niesie ze sobą dwie podstawowe konsekwencje.

Po pierwsze, umożliwia przedsiębiorstwom elastyczne, okresowe lub stałe, korzystanie z funkcji oferowanych przez dostawców sprzętu i oprogramowania. Po drugie, pozwala na znaczące obniżenie kosztów ponoszonych na IT i ich silne powiązanie z bieżącymi potrzebami przedsiębiorstwa. Model zakładający opłatę za wykorzystane funkcje (systemu), moc (procesorów) lub zasoby (pamięci) zrywa z jedną z podstawowych zasad rządzących do tej pory funkcjami IT w przedsiębiorstwie, zakładającą pewną nadmiarowość wdrożonych w organizacji rozwiązań. Pozwala na całkowite dopasowanie wykorzystywanych zasobów do zmiennego zapotrzebowania na moce obliczeniowe, wynikającego na przykład z niejednolitego rytmu kampanii marketingowych czy wahań popytu na usługi.

Modele komunikacji (Enterprise 2.0). Zmiany technologiczne i społeczne powodują upowszechnienie nowych metod i narzędzi komunikacji i współpracy najpierw wśród indywidualnych (Web 2.0), a potem także korporacyjnych (Enterprise 2.0) użytkowników internetu. I tak przedsiębiorstwa wykorzystują już do swoich rynkowych celów – sprzyjające nawiązywaniu i podtrzymywaniu kontaktów, wymianie informacji oraz współpracy – blogi, narzędzia wiki (o strukturze zbliżonej do Wikipedii) czy serwisy społecznościowe, na przykład LinkedIn, Facebook, Twitter. Z jednej strony jest to wynik upowszechnienia nowatorskich technologii, upraszczających tworzenie i publikację treści w internecie. Z drugiej – wiąże się z rosnącą globalną popularnością internetu i rosnącą potrzebą autokreacji. Efektem szeregu tych drobnych zmian jest ewolucja narzędzi, metod komunikacji i współpracy wewnątrz firm, a także pomiędzy nimi. Zdaniem analityków z firmy McKinseyIndeks górny 3, odciśnie to trwałe piętno na organizacjach – znacznie większe niż w przypadku klasycznych systemów wspomagających zarządzanie ERP (Enterprise Resource Planning) albo CRM (Customer Relationship Management). Narzędzia te, wykorzystujące zwyczajne metody komunikacji i proste przekazy, pomagają w burzeniu naturalnych barier powstających pomiędzy jednostkami biznesowymi wewnątrz organizacji (tzw. silosami) i zachęcają do większego zaangażowania w obieg informacji szeregowych pracowników. Wzmacniają w ten sposób komunikację oddolną, a także wymianę danych z otoczeniem (klientami i partnerami firmy), co odgrywa coraz większą rolę w kreowaniu nowych rozwiązań biznesowych.

Trzy cechy nowoczesnej organizacji

Upowszechnienie nowej architektury SOA, innowacyjnych metod dostępu do zasobów informatycznych (cloud computing) i nowoczesnych modeli komunikacji pozwala na zerwanie z tradycyjnymi ograniczeniami, które utrudniają elastyczne zmiany organizacyjne, związane z koniecznością dostosowania się do otoczenia rynkowego. Zwiększa nie tylko zdolności adaptacyjne przedsiębiorstwa, ale także jego możliwości w zakresie kreowania nowych funkcji i produktów lub usług. Podnosi na wyższy poziom zdolność organizacji do pozyskiwania i koordynacji zasobów wewnętrznych i zewnętrznych, pozostających poza granicami firmyIndeks górny 4. Zniesienie dotychczasowych ograniczeń technologicznych prowadzi więc do stopniowego wyłaniania się nowego modelu przedsiębiorstwa, określanego mianem Organizacji 2.0 lub organizacji sieciowej (Networked Virtual Organization – NVO).

Specjaliści z Cisco Internet Business Solutions Group, globalnego działu doradztwa strategiczno‑technologicznego zajmującego się obsługą przedsiębiorstw z listy Global Fortune 500 i najbardziej innowacyjnych instytucji sektora publicznego, przeanalizowali dokładnie podstawowe funkcje firm (takie jak: obsługa klienta, zarządzaniem łańcuchem dostaw, zarządzanie i optymalizacja zasobów ludzkich) i metody realizacji najważniejszych zadań operacyjnych realizowanych w kilkuset najbardziej efektywnych firmach. Na podstawie analizy modelu działania tych przedsiębiorstw udało im się wyodrębnić trzy podstawowe cechy wspólne charakterystyczne dla NVO, które zostały opisane w opracowaniu „The Bridge. Connecting Business and Technology Strategies”. Po pierwsze, niezależnie od charakteru działalności i sektorów, w których działają, firmy sieciowe są silnie zorientowane na klienta. Po drugie, każda opiera swoją strategię na podziale pomiędzy funkcjami rdzenia (core) i funkcjami oddalonymi od rdzenia (context). Po trzecie, wszystkie dążą do silnej standaryzacji metod działania wszędzie tam, gdzie może to prowadzić do zwiększania efektywności bez utraty korzyści wynikających z wyróżnienia się.

Silna orientacja na klienta. Organizacje sieciowe zawsze sytuują klienta w centrum łańcucha wartości. Dzięki temu mogą błyskawicznie odpowiadać na potrzeby nabywców i zmiany w strukturze popytu. To poważna zmiana jakościowa. W typowych przedsiębiorstwach łańcuch wartości ma wciąż postać linearną: od procesu pozyskiwania surowców i zasobów, przez projektowanie i produkcję, aż po sprzedaż i dostawę do klienta, który postrzegany jest przede wszystkim jako konsument produktu bądź usługi. Organizacje sieciowe zrywają z tym podziałem. Umieszczając klienta w centrum, czynią z niego aktywnego uczestnika i partnera w procesie produkcji. Same przyjmują na siebie rolę moderatora i kreatora łańcucha wartości, stale poszukującego odpowiedzi na pytania, jakie są potrzeby klientów, jak szybko można na nie odpowiedzieć i co zrobić, żeby dostarczyć nabywcom dodatkową wartość. W praktyce oznacza to konieczność wpisania satysfakcji klienta w strategię przedsiębiorstwa i uczynienie z wysokiego poziomu tego wskaźnika jednego z podstawowych wyróżników rynkowych firmy. To prowadzi dalej do przemodelowania procesów wewnętrznych, tak by w pełni odpowiadały na najważniejsze oczekiwania konsumentów, wyszkolenia wszystkich pracowników, by swoim działaniem wspierali priorytety firmy, oraz wdrożenia metod pomiaru uwzględniających satysfakcję klienta na wszystkich etapach łańcucha wartościIndeks górny 5.

Stworzenie przez przedsiębiorstwo nowoczesnych serwisów Web 2.0 i Enterprise 2.0, umożliwiających nieskrępowaną komunikację i współpracę, staje się jednym ze sposobów na zaangażowanie klientów w dialog z dostawcą. Relatywnie niewielkim kosztem firmy zyskują nowe narzędzie kształtowania opinii o produktach czy usługach (oczywiście komunikacja w internecie zakłada dużą swobodę, co w niektórych przypadkach może obrócić się przeciwko podmiotowi wykorzystującemu serwisy Web 2.0 do komunikacji z otoczeniemIndeks górny 6).

Dla wielu autorytetów w dziedzinie zarządzania przykładem firmy zorientowanej na klienta pozostaje Dell. Koncern, stale poszukujący nowych usprawnień w przyjętym modelu obsługi i dążący do minimalizacji jego kosztów, już od wczesnych lat dziewięćdziesiątych XX wieku rozwija fora dyskusyjne dla klientów szukających rozwiązań podstawowych problemów związanych z eksploatacją ich produktów. Dzięki założonemu w 2006 roku blogowi Direct2Dell jest także jednym z pionierów korporacyjnego wykorzystania narzędzi Web 2.0. W 2007 roku koncern poszedł o krok dalej. Otworzył własny serwis Dell IdeaStorm, gdzie jego klienci i partnerzy mogą prezentować koncepcje dotyczące rozszerzenia jego oferty rynkowej i dyskutować nad nimi, głosować na najlepsze i najgorsze pomysły, a także obserwować postępy w ich implementacji. Gorącym orędownikiem powstania nowego serwisu był sam Michael Dell, który powołał w strukturach firmy specjalny 40‑osobowy, interdyscyplinarny zespół specjalistów zajmujących się ewaluacją pomysłów dostarczanych przez otoczenie – Communities and Conversations. W ciągu kilku tygodni od swojej premiery Dell IdeaStorm przyniosła ponad 1,8 tysiąca koncepcji, dotyczących zarówno procesów obsługi klienta (na przykład przeniesienia z powrotem do Stanów Zjednoczonych telefonicznego centrum obsługi klientów), jak i samej strategii rynkowej (choćby uzupełnienia oferty o produkty z preinstalowanym systemem Linux). Tylko w ciągu pierwszego roku firma przynajmniej częściowo wdrożyła około 180 z tych pomysłów i nadal wkłada dużo wysiłku w upowszechnienie tej koncepcji.

Efektywny podział pomiędzy funkcjami rdzenia (core) i funkcjami oddalonymi od rdzenia (context). Cechą charakterystyczną organizacji sieciowych jest umiejętność rozwoju rdzenia (core), a więc tych funkcji, które dostarczają wartość przedsiębiorstwu, przy równoczesnym wykorzystaniu partnerów zewnętrznych w realizacji wszystkich funkcji, które pozostają poza jego rdzeniem (context). Dzięki partnerstwu z podmiotami o komplementarnych kompetencjach organizacje są w stanie osiągnąć równocześnie innowacyjność i czerpać z efektu skali w przypadku realizacji wielu funkcji. To byłoby niemożliwe przy samodzielnej realizacji wszystkich tych zadań. W ten sposób spada także ryzyko porażki strategii opartej na udoskonaleniu jednej z tych funkcji, zgodnie z opisanym przez Chrisa ZookaIndeks górny 7 modelem, w którym każdy krok oddalający działania firmy od rdzenia znacząco obniża prawdopodobieństwo sukcesu.

Podział na funkcje rdzenia i funkcje oboczne nie jest niczym nowym. Nowość stanowi przede wszystkim sposób zarządzania relacjami. Wiele firm, dzielących swoje funkcje i procesy na kreujące znaczącą wartość dla przedsiębiorstwa i pozostałe, sprowadza decyzje strategiczne w zakresie zarządzania zasobami (sourcing) do prostej alternatywy. Zakłada wykorzystanie własnych zasobów (in house) lub pomoc partnerów zewnętrznych (outsourcing). Nowe organizacje sieciowe przyjmują aktywniejszą postawę, dodatkowo dzieląc funkcje rdzenia i funkcje od niego oddalone na te o krytycznym znaczeniu dla funkcjonowania (mission critical) i te mniej znaczące (non‑mission critical). W zależności od tego, jak sklasyfikowane zostały poszczególne zadania i procesy, są one realizowane: zasobami wewnętrznymi (funkcje rdzenia o krytycznym znaczeniu); siłami zewnętrznymi, ale przy zachowaniu ścisłego nadzoru i odpowiedzialności za ostateczny wynik po stronie organizacji zlecającej, a więc przez tzw. outtasking (funkcje rdzenia o niekrytycznym znaczeniu i funkcje oddalone od rdzenia, mające jednak krytyczne znaczenie); zasobami zewnętrznymi, dysponującymi sporą autonomią w zakresie sposobu ich realizacji, czyli poprzez outsourcing (funkcje oddalone od rdzenia o niekrytycznym znaczeniu dla firmy)Indeks górny 8.

Upowszechnienie architektury SOA i nowego modelu dostarczania i korzystania z zasobów informatycznych (cloud computing) ułatwia outtasking i outsourcing funkcji oraz integrację systemów pomiędzy przedsiębiorstwem zlecającym na zewnątrz realizację niektórych procesów i nowym dostawcą tych usług, wydatnie obniżając koszt obsługi informatycznej tego typu przedsięwzięć. Przykładem organizacji sieciowej działającej według tego wzorca jest Cisco Systems. Za funkcje rdzenia o znaczeniu krytycznym, a więc realizowane całkowicie zasobami wewnętrznymi, koncern uznał procesy związane z projektowaniem i marketingiem produktów, zarządzaniem relacjami z największymi klientami, a także rozwój procesu sprzedaży (pre‑sale support). Za funkcje rdzenia niemające jednak krytycznego znaczenia uznano m.in. marketing korporacyjny, który jest realizowany przez podmioty zewnętrzne, przy zachowaniu jednak całkowitego nadzoru nad sposobem wykonania zadań. W podobny sposób są realizowane również zadania produkcji, obsługi logistycznej czy technicznego wsparcia klientów, a więc mające krytyczne znaczenie, niebędące jednak kluczowymi rodzajami aktywności koncernu.

Przyjrzyjmy się, w jaki sposób realizowana jest usługa wsparcia klientów. Cisco Systems zawsze słynęło z wysokich standardów obsługi – już w połowie ubiegłej dekady gwarantowało usunięcie nawet najbardziej skomplikowanych awarii sprzętu w 6 – 10 dni, a w przypadku najważniejszych klientów w 48 godzin. Osiągnięcie tych wyśrubowanych wskaźników oznaczało konieczność znaczącego zwiększenia zatrudnienia i budowę sieci placówek serwisu wraz z magazynami podzespołów albo zbudowanie sieci partnerskiej. Koncern wybrał to drugie rozwiązanie. Podpisał umowy z ponad 600 firmami serwisowymi – od niewielkich spółek po największe światowe koncerny, takie jak IBM – a także operatorami logistycznymi, takimi jak Federal Express i DHL, którzy zagwarantowali dostarczenie potrzebnych części. Aby usprawnić nowy proces obsługi klienta, Cisco Systems wdrożył również internetową aplikację do zgłaszania problemów serwisowych. Dzięki transformacji tego procesu na początku XXI wieku koncern mógł zagwarantować usunięcie awarii w 4 lub 2 godziny od jej zaistnienia. Zaoszczędził także około 300 milionów dolarów rocznie na kosztach magazynowych i dalsze kilkadziesiąt dzięki ograniczeniu do mniej więcej 200 liczby etatów dla pracowników zajmujących się koordynacją serwisu.

W całkowity outsourcing Cisco Systems oddał wsparcie zadań i procesów wewnątrzfirmowych, takich jak naliczanie wynagrodzeń czy techniczne wsparcie użytkowników wewnętrznych. Oczywiście definicja funkcji rdzenia i funkcji oddalonych od rdzenia zmienia się dynamicznie wraz ze zmianami w otoczeniu organizacji. W ciągu kilkunastu ostatnich lat Cisco Systems przekazał do obsługi partnerom zewnętrznym procesy produkcji i montażu urządzeń (uznawane wcześniej za kluczowe i krytyczne) – realizują je dziś wyspecjalizowane firmy, takie jak Solectron (aktualna mapa funkcji biznesowych firmy Cisco przedstawiona jest w ramce Strategia organizacji sieciowej na przykładzie firmy Cisco Systems).

Organizacja 2.0: firma bez barier

Silna standaryzacja. Jako że wartość przedsiębiorstwa w coraz silniej konkurencyjnym otoczeniu zależy od stałego obniżania kosztów funkcjonowania, przy równoczesnym zachowaniu optymalnego poziomu realizowanych zadań, organizacje sieciowe dążą do umiejętnego wykorzystywania standardowych rozwiązań IT, źródeł danych i procesów. Dzięki postępującej standaryzacji mogą działać w znacznie efektywniejszy sposób, nie rozpraszając swojej uwagi na doskonalenie rozwiązań, które nie mają znaczenia dla ich konkurencyjności. Przyjęcie określonych standardów pozwala na rozproszenie procesu podejmowania decyzji, a więc ich lepszego dopasowania do potrzeb klientów i zmieniającego się otoczenia.

Upowszechnienie nowej architektury systemów SOA, która sama jest quasi‑standardem w projektowaniu i integracji aplikacji biznesowych, znacząco uprościło proces projektowania i rozwoju standardów wykorzystywanych przez nowoczesne organizacje sieciowe. Na założeniach architektury SOA bazuje na przykład standard wymiany danych WITSML (Wellsite Information Transfer Standard Markup Language), stworzony przez Energistics (Energy Standard Resource Center), konsorcjum, w skład którego wchodzą największe naftowe i technologiczne koncerny świata (m.in.: Shell, BP, Chevron–Texaco, Schlumberger, Tietoenator), a także agendy rządowe Stanów Zjednoczonych i Norwegii.

Jednym z podstawowych wyzwań, przed którymi stoją koncerny wydobywcze, jest konieczność analizy i współdzielenia wielkich zbiorów danych i informacji (przede wszystkim geologicznych) pomiędzy siebie, a także w ramach sieci mniejszych spółek‑kontraktorów zajmujących się wierceniami na ich zlecenie. To dzięki sprawnej analizie tych informacji organizacje zarządzające wierceniami są w stanie dotrzeć do nowych złóż, a także zapobiec kosztownym uszkodzeniom sprzętu, na przykład w wyniku natrafienia na specyficzną formację skalną. Właśnie dlatego kilka lat temu najważniejsze koncerny wydobywcze zaczęły rezygnować z rozwijanych latami autorskich programów wymiany danych i rozpoczęły pracę nad stworzeniem wspólnego standardu. Jego upowszechnienie pozwoliło zintegrować procesy pomiędzy organizacjami zaangażowanymi w eksplorację złóż. Dzięki podniesieniu jakości i szybkości przesyłu danych dostarczanych z urządzeń prowadzących wiercenia udało się usprawnić zarządzanie procesem wydobywczym, poprawić dokładność symulacji niezbędnych w procesie poszukiwania surowców, a także przyspieszyć reakcję na wszelkie nieprzewidziane zdarzenia zachodzące w całym zintegrowanym łańcuchu dostaw. Wprowadzenie standardów pozwoliło na osiągnięcie kilkuprocentowych korzyści na etapie eksploracji (1 – 7%), eksploatacji (5 – 15%) i przerobu (1 – 6%) złóż, a także ograniczenia przestojów (1 – 4%) i podniesienia efektywności operacyjnej (3 – 25%)Indeks górny 9.

Adaptacja strategii typowej dla organizacji sieciowej może przynieść korzyści każdemu przedsiębiorstwu, niezależnie od jego rozmiarów czy segmentu rynku, w którym działa. Najbardziej i najszybciej skorzystają na tym jednak firmy funkcjonujące w sektorach, w których zarówno wewnątrz, jak i w otoczeniu realizowanych jest wiele transakcji o wysokich kosztach jednostkowych (na przykład Charles Schwab, działający w sektorze usług finansowych dla klientów indywidualnych). Zyskają także przedsiębiorstwa funkcjonujące w obrębie łańcuchów wartości zdominowanych przez duże podmioty (a więc dostawcy podzespołów współpracujący z największymi producentami aut, takimi jak Toyota) i organizacje silnie uzależnione od wykorzystania technologii informatycznych (na przykład operatorzy telekomunikacyjni, tacy jak France Telecom).

***

Fundamentalne przemiany zachodzące zarówno w sferze technologii, jak i systemów zarządczych oraz całej kultury organizacyjnej doprowadzą do powstania nowego modelu firmy – otwartej na współpracę i zdolnej do szybkiej reakcji na zmiany zachodzące w otoczeniu rynkowym. Procesy transformacji będą miały ewolucyjny charakter, a ich ostateczny kształt jest dziś trudny do przewidzenia.

  1. Gary Hamel „Kosmiczne wyzwania w dziedzinie zarządzania”, Harvard Business Review Polska, maj 2009.

  2. Szerzej: Nicholas Carr, The Big Switch. Rewiring the World from Edison to Google, 2008.

  3. Michael Chui, Andy Miller, Roger P. Roberts „Six ways to make Web 2.0 work”, McKinsey Quarterly, luty 2009.

  4. Szerzej: John Hagel III, John Seely Brown, w The Only Sustainable Edge: Why Business Strategy Depends on Productive Friction and Dynamic Specialization, 2005.

  5. Szerzej: McKinsey Marketing Solutions White Paper „Rediscovering The Customer. Turning Customer Satisfaction into Sharesholder Value”.

  6. Szerzej: Andrew McAfee, Enterprise 2.0: New Collaborative Tools for Your Organization’s Toughest Challenges.

  7. Chris Zook, Beyond the Core: Expand Your Market Without Abandoning Your Roots, Harvard Business School Press, Boston, 2004.

  8. Autorem koncepcji funkcji rdzenia i funkcji oddalonych od rdzenia jest Geoffrey Moore, który rozwinął ją w książce Dealing with Darwin, 2005.

  9. Tony Wood, Cisco Internet Business Solutions Group White Paper „The Conected Oilfield”, 2007.
    a. Termin Web 2.0, określający wszystkie nowoczesne narzędzia komunikacji w internecie używane przez indywidualnych użytkowników, został upowszechniony przez dziennikarza, wydawcę i organizatora konferencji Tima O’Reilly. Termin Enterprise 2.0, eksponujący profesjonalne zastosowania narzędzi Web 2.0, został upowszechniony przez Andrew McAfee z Harvard Business School.

O autorach
Tematy

Może Cię zainteresować

Marki luksusowe pod presją geopolityki

W połowie kwietnia rynki kapitałowe zelektryzowała informacja o tym, że francuski gigant LVMH stracił tytuł najcenniejszej firmy luksusowej na świecie na rzecz mniejszego, ale bardziej ekskluzywnego Hermèsa. Czy detronizacja jednej francuskiej marki przez drugą (producenta torebek Louis Vuitton przez producenta torebek Birkin) to rzeczywiście zdarzenie, którym powinny się ekscytować europejskie rynki? I co ta zmiana oznacza dla polskich producentów marek premium?

 

Dobre relacje w firmie zaczynają się od dobrze dobranych słów

Gdy codzienna komunikacja sprowadza się do skrótów myślowych, domysłów i niejasnych sygnałów, łatwo o spadek zaangażowania, narastające napięcia i chaos informacyjny. Coraz więcej organizacji dostrzega, że to właśnie język – sposób, w jaki mówimy do siebie w pracy – buduje (lub rujnuje) atmosferę oraz relacje w zespołach. O tym, jak świadomie kształtować kulturę organizacyjną poprzez komunikację, opowiada Joanna Tracewicz, Senior Content Strategy Manager w rocketjobs.pl i justjoin.it, a także współautorka poradnika Nie mów do mnie ASAP! O spoko języku w pracy.  Rozmawia Paulina Chmiel-Antoniuk.

AI w medycynie predykcyjnej – jak wearables zmieniają opiekę Jak AI i urządzenia noszone rewolucjonizują medycynę

W ostatnich latach inteligentne urządzenia noszone (wearables) przeszły drogę od prostych krokomierzy do zaawansowanych narzędzi monitorujących stan zdrowia. Dzięki sztucznej inteligencji stają się one nie tylko rejestratorami danych, lecz także systemami predykcyjnymi, które mogą wspierać diagnostykę i profilaktykę chorób. W świecie biznesu i zarządzania zdrowiem pracowników technologia ta może odegrać kluczową rolę.
Według raportu Think Tank SGH wartość globalnego rynku AI w ochronie zdrowia wzrośnie z 32,3 miliarda dolarów w 2024 roku do 208,2 miliarda dolarów w 2030 roku, co oznacza średnioroczny wzrost na poziomie 36,4%. Ta dynamiczna ekspansja wskazuje na rosnące znaczenie technologii AI i wearables jako ważnych elementów nowoczesnej opieki medycznej.

Strategiczna samotność – klucz do autentycznego przywództwa

W dynamicznym współczesnym świecie biznesu, w którym dominują informacje dostarczane w trybie natychmiastowym, umiejętność samodzielnego, logicznego i krytycznego myślenia stała się jedną z najcenniejszych kompetencji liderów. Koncepcja ta, przedstawiona przez Williama Deresiewicza, byłego profesora Uniwersytetu Yale, zakłada, że prawdziwe przywództwo nie rodzi się wśród zgiełku opinii i impulsów zewnętrznych, lecz w przestrzeni samotności i skupienia.

Skup się na fanach marki. Oferta skierowana do wszystkich nie działa!
Multimedia
Skup się na fanach marki. Oferta do wszystkich nie działa!

W spolaryzowanej kulturze pogoń za rynkiem masowym i kierowanie oferty do wszystkich są z góry skazane na porażkę. Najlepszym sposobem na osiągnięcie sukcesu marki jest sprzymierzenie się z subkulturą, która ją pokocha.

Cła, przeceny i okazje: Jak zarobić, gdy inni panikują lub tweetują

Trump tweetuje, Wall Street reaguje nerwowo, a inwestorzy znów sprawdzają, czy gdzieś nie pozostawili Planu B. Gdy rynek wpada w histerię, pojawia się pokusa: a może jednak warto „kupić w tym dołku”? W tym tekście sprawdzamy, czy inwestowanie w kontrze do tłumu to genialna strategia na czasy ceł Trumpa, banów na Chiny i politycznych rollercoasterów — czy raczej przepis na ból głowy i portfela. Nie wystarczy chłodna kalkulacja, przyda się też stalowy żołądek.

• Jak generować wartość z AI dzięki małym transformacjom w biznesie - Webster
Premium
Jak generować wartość z AI dzięki małym transformacjom w biznesie

Liderzy skutecznie wykorzystują duże modele językowe, stopniowo minimalizując ryzyko i tworząc solidne fundamenty pod przyszłe transformacje technologiczne, dzięki czemu generują realną wartość dla swoich organizacji.

Niespełna dwa lata temu generatywna sztuczna inteligencja (GenAI) trafiła na czołówki stron gazet, zachwycając swoimi niezwykłymi możliwościami: mogła prowadzić rozmowy, analizować ogromne ilości tekstu, dźwięku i obrazów, a nawet tworzyć nowe dokumenty i dzieła sztuki. To najszybsze w historii wdrożenie technologii przyciągnęło ponad 100 mln użytkowników w ciągu pierwszych dwóch miesięcy, a firmy z różnych branż rozpoczęły eksperymenty z GenAI. Jednak pomimo dwóch lat intensywnego zainteresowania ze strony kierownictwa i licznych prób wdrożeniowych nie widać wielkoskalowych transformacji biznesowych, które początkowo przewidywano. Co się stało? Czy technologia nie spełniła oczekiwań? Czy eksperci się pomylili, wzywając do gigantycznych zmian? Czy firmy były zbyt ostrożne? Odpowiedź na te pytania brzmi: i tak, i nie. Generatywna sztuczna inteligencja już teraz jest wykorzystywana w wielu firmach, ale nie – jako lokomotywa radykalnej transformacji procesów biznesowych. Liderzy biznesu znajdują sposoby, by czerpać realną wartość z dużych modeli językowych (LLM), nie modyfikując całkowicie istniejących procesów. Dążą do małych zmian (small t) stanowiących fundament pod większe przekształcenia, które dopiero nadejdą. W tym artykule pokażemy, jak robią to dzisiaj i co możesz zrobić, aby tworzyć wartość za pomocą generatywnej sztucznej inteligencji.

Premium
Polski przemysł na rozdrożu

Stoimy przed fundamentalnym wyborem: albo dynamicznie przyspieszymy wdrażanie automatyzacji i robotyzacji, co sprawi, że staniemy się aktywnym uczestnikiem czwartej rewolucji przemysłowej, albo pogodzimy się z perspektywą erozji marż pod wpływem rosnących kosztów operacyjnych i pogłębiającego się strukturalnego niedoboru wykwalifikowanej siły roboczej.

Jak alarmują prognozy Polskiego Instytutu Ekonomicznego, do 2030 r. w samej Europie może zabraknąć nawet 2,1 mln wykwalifikowanych pracowników, co czyni automatyzację nie jedną z możliwości, lecz strategiczną koniecznością. Mimo że globalnie liczba robotów przemysłowych przekroczyła już 4,2 mln jednostek, a w Europie w 2023 r. wdrożono rekordowe 92,4 tys. nowych robotów, Polska wciąż pozostaje w tyle. Nasz wskaźnik gęstości robotyzacji, wynoszący zaledwie 78 robotów na 10 tys. pracowników przemysłowych, znacząco odbiega od europejskiego lidera – Niemiec (397 robotów na 10 tys. pracowników), czy globalnego pioniera – Korei Południowej (tysiąc robotów na 10 tys. pracowników). W Scanway – firmie, która z sukcesem łączy technologie rozwijane dla sektora kosmicznego z potrzebami przemysłu – jesteśmy przekonani, że przyszłość konkurencyjności leży w inteligentnym wykorzystaniu danych, zaawansowanej automatyzacji opartej na AI oraz strategicznej gotowości do wprowadzania zmian technologicznych. Czy jednak zaawansowana wizja maszynowa napędzana przez sztuczną inteligencję może się stać katalizatorem, który pozwoli sprostać wyzwaniom i odblokować uśpiony potencjał innowacyjny polskiej gospodarki?

Premium
Gdy projekt wymyka się spod kontroli

Polskie firmy technologiczne coraz częściej realizują złożone zlecenia dla międzynarodowych gigantów. Jednak nawet najlepiej przygotowany zespół może przy takim projekcie natknąć się na nieoczekiwane przeszkody. Przykład firmy Esysco wdrażającej szyfrowanie poczty e-mail dla jednego z największych niemieckich banków pokazuje, jak szybko może runąć precyzyjnie zaplanowany harmonogram oraz jak radzić sobie z nieprzewidywalnymi wyzwaniami.

Polskie firmy technologiczne coraz częściej zdobywają międzynarodowe kontrakty i realizują projekty, które jeszcze niedawno były zarezerwowane wyłącznie dla międzynarodowych rywali. Dzięki temu zdobywają zagraniczne rynki, osiągając imponujące wyniki eksportu usług IT, który w 2023 r. przekroczył 16 mld dolarów. W ostatniej dekadzie przychody branży wzrosły niemal czterokrotnie, a wartość eksportu – aż 7,5 razy, dzięki czemu polski sektor IT stał się motorem rodzimego eksportu. Kluczowymi kierunkami ekspansji są Stany Zjednoczone, Niemcy i Wielka Brytania, a wśród najsilniejszych obszarów znajdują się fintech, cyberbezpieczeństwo, sztuczna inteligencja, gry oraz rozwój oprogramowania.

Polska wyróżnia się w regionie Europy Środkowo-Wschodniej jako największy eksporter usług IT, przewyższając Czechy czy Węgry, a pod względem jakości specjalistów IT zajmuje trzecie miejsce na świecie. Jednak do pełnego wykorzystania tego potencjału konieczne jest pokonanie barier takich jak ograniczony dostęp do kapitału na ekspansję, rosnące koszty pracy oraz niedostateczne doświadczenie w międzynarodowej sprzedaży i marketingu. To jednak nie wszystko. Przy współpracy z międzynarodowymi gigantami trzeba również pamiętać o nieznanej polskim wdrożeniowcom skali, złożoności i nieprzewidywalności towarzyszącym tak wielkim projektom. Dobrym przykładem może być nasze wdrożenie dla jednego z największych niemieckich banków, z którym podpisaliśmy kontrakt na wprowadzenie systemu zabezpieczeń e-maili dla ponad 300 tys. użytkowników rozsianych po całym świecie. Technologicznie byliśmy gotowi, ale rzeczywistość szybko zweryfikowała nasze plany.

Premium
Praktyczny poradnik kreowania wartości z dużych modeli językowych

Gdy w 2022 r. pojawiły się powszechnie dostępne duże modele językowe (LLM), ich potężna zdolność do generowania tekstu na żądanie zapowiadała rewolucję w produktywności. Jednak mimo że te zaawansowane systemy AI potrafią tworzyć płynny tekst w języku naturalnym i komputerowym, to są one dalekie od doskonałości. Mogą halucynować, wykazywać się logiczną niespójnością oraz produkować treści nieadekwatne lub szkodliwe.

Chociaż technologia ta stała się powszechnie dostępna, wielu menedżerów nadal ma trudności z rozpoznawaniem przypadków użycia LLM-ów, w których poprawa produktywności przewyższa koszty i ryzyka związane z tymi narzędziami. Potrzebne jest bardziej systematyczne podejście do wykorzystywania modeli językowych, tak aby uefektywnić procesy biznesowe, a jednocześnie kontrolować słabe strony LLM-ów. Proponuję trzy kroki ułatwiające osiągnięcie tego celu. Po pierwsze, należy rozłożyć proces na mniejsze zadania. Po drugie, trzeba ocenić, czy każde zadanie spełnia tzw. równanie kosztów GenAI, które szczegółowo wyjaśnię w tym artykule. Jeśli ten warunek zostanie spełniony, należy uruchomić projekt pilotażowy, iteracyjnie oceniać jego wyniki oraz na bieżąco wprowadzać zmiany w celu poprawy rezultatów.

Kluczowe w tym podejściu jest pełne zrozumienie, w jaki sposób mocne i słabe strony modeli językowych odpowiadają specyfice danego zadania; jakie techniki umożliwiają ich skuteczną adaptację w celu zwiększenia wydajności; oraz jak te czynniki wpływają na bilans kosztów i korzyści – a także na ocenę ryzyka i potencjalnych zysków – związanych z wykorzystaniem modeli językowych do podnoszenia efektywności realizowanych działań.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Newsletter

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!