Mimo dobrej koniunktury producenci towarów standardowych nie są w stanie szybko i tanio zwiększyć zysku. Nie mają już bowiem wolnych mocy przerobowych, a dodatkowe inwestycje wymagają dłuższego czasu i ogromnych nakładów. Szansą dla nich jest metoda dynamicznej optymalizacji cen i portfela produktów.
Producenci towarów standardowych (commodities) mają dziś nietypowy kłopot. W wyniku dynamicznego wzrostu gospodarczego otrzymują więcej zamówień, niż są w stanie zrealizować. Robią więc wszystko, co w ich mocy, by – korzystając z okazji – szybko zwiększyć zysk.
Sęk w tym, że – w przeciwieństwie do firm z innych branż – huty, zakłady chemiczne, producenci materiałów budowlanych, wytwórnie papieru, firmy transportowe i inni producenci towarów standardowych nie mają dużego pola manewru ani w obszarze redukcji kosztów, ani w obszarze wzrostu przychodów. Koszty są już na ogół pod ścisłą kontrolą, bo firmy te dopiero co wyszły z czasów dekoniunktury, gdy redukcja kosztów była ich mantrą i zwykłą koniecznością. Z kolei przychody mają duży potencjał, ale tylko z pozoru. Aby wytwarzać więcej jednostek standardowego towaru, producent musiałby dokupić moce produkcyjne – a to wymaga często dużych nakładów i jest czasochłonne. A przecież koniunktura nie będzie trwała wiecznie – rynki towarów standardowych są bardzo podatne na cykle koniunkturalne. Producenci starają się więc wykorzystać ją jak najlepiej. Szybko wdrażają programy zwiększenia efektywności, eliminują straty w procesie produkcji, skracając czas remontów i wprowadzając pracę w trybie ciągłym (czyli przez 7 dni w tygodniu po 24 godziny).
Pozostaje jeszcze jeden sposób na podniesienie przychodów – wzrost cen. Niestety, mimo że ceny rosną na całym rynku, to w przypadku towarów standardowych (na przykład blach) ich jednostronne podniesienie przez jednego gracza jest bardzo ryzykowne. Rynek na produkty standardowe jest bowiem stosunkowo przejrzysty (łatwo porównać jakość i ceny), a odbiorcy nie akceptują cen wyższych od rynkowych.
Poza tym odbiorcy towarów standardowych cechują się dużą elastycznością cenową. Przy ograniczonej podaży i znacznym popycie w danym momencie część z nich będzie musiała złożyć zamówienia z późniejszym terminem realizacji, co ograniczy presję na wzrost cen i de facto pogorszy wynik finansowy producenta. Wysoka elastyczność cenowa odbiorców towarów standardowych, mimo znacznego nadpopytu na te półprodukty, wynika z dwóch przyczyn. Po pierwsze, koszty tych półproduktów stanowią znaczną część całkowitych kosztów wytworzenia produktów przez odbiorców. Po drugie, większość branż, w których działają odbiorcy produktów standardowych, musi akceptować niskie marże i nawet nieznaczny wzrost cen surowców znacznie obniży ich dochody.
Mamy jednak dobrą wiadomość. Huty, zakłady chemiczne, producenci materiałów budowlanych, wytwórnie papieru, firmy transportowe i inni producenci towarów standardowych mogą sięgnąć po jeszcze jedną skuteczną broń w walce o szybki wzrost zysku w warunkach koniunktury. To dynamiczna optymalizacja cen i portfela produktów. Nowe podejście do zwiększania efektywności, stworzone przez nas i wprowadzone w hucie Aluminium Konin – Impexmetal, jest w stanie przynieść istotny wzrost zysku – znacznie wyższy od tego, który dało w tej samej firmie kilka innych nieinwestycyjnych inicjatyw efektywnościowych razem wziętych. Co ważne, podejście to ma szansę sprawdzić się nie tylko w hucie! Jest również możliwe do wdrożenia w wielu innych branżach (warunki, jakie muszą spełniać te branże, aby mogły zastosować naszą metodę, podajemy w ramce Nowa metoda optymalizacji portfela produktów, czyli jak doświadczenia z sektora usług przenieść do przemysłu). W tym artykule wyjaśnimy, na czym ta nowa metoda polega.


Jedna metoda w pięciu odsłonach
Nowa metoda optymalizacji cen i portfela produktów obejmuje pięć ściśle powiązanych ze sobą koncepcji: (1) zarządzanie portfelem produktów, (2) zarządzanie mocami produkcyjnymi wraz z prognozowaniem strumienia zamówień, (3) system motywacyjny premiujący sprzedaż produktów wysokomarżowych i uzyskaną cenę, (4) dynamiczne zarządzanie cenami oraz (5) rozwiązania organizacyjne wspierające nowe podejście.
Wszystkie te koncepcje – wdrożone łącznie we wrześniu 2006 roku – dały już wspomnianej firmie wzrost marży o 25% w pierwszym miesiącu od wprowadzenia, a – jak szacujemy – mogą w perspektywie kolejnych 6 – 10 miesięcy przynieść docelowy wzrost nawet o ponad 50%. Tak dużą skalę wzrostu bardzo trudno jest uzyskać w firmie produkującej towary standardowe. Dla porównania, w tej samej hucie, standardowe metody zwiększenia efektywności, czyli redukcja kosztów (produkcji, zakupów, kosztów ogólnych, kapitału zapasowego), przyniosły efekty stanowiące zaledwie połowę wartości wytworzonej przez nową metodę optymalizacji portfela produktów. Należy też pamiętać, że optymalizacja portfela produktów jest najmniej bolesna dla firmy, ponieważ nie wymaga realizacji zwolnień grupowych, prowadzenia twardych negocjacji z dostawcami czy cięcia budżetów. Przyczynia się ona raczej do lepszego zrozumienia źródeł tworzenia wartości w firmie, a następnie nakierowuje jej działalność na zaspokajanie potrzeb pochodzących z tych źródeł.
Nie wszystkie elementy nowej metody mają jednakowy wpływ na tak znakomite wyniki. Trzon nowego podejścia stanowią: optymalizacja portfela produktów oraz zarządzanie mocami produkcyjnymi – to w tych procesach jest najwięcej zmian w stosunku do tradycyjnego sposobu działania i na nich skupimy się w dalszej części artykułu. Pozostałe elementy naszej metody omówimy mniej szczegółowo. Trzeba jednak pamiętać, że sukces można osiągnąć tylko przy pełnym wdrożeniu wszystkich elementów.
Zarządzanie portfelem produktów
Zarządzanie portfelem produktów jest techniką powszechnie znaną w firmach produkcyjnych. Oznacza takie modyfikowanie udziału zamówionych wyrobów w harmonogramie produkcji, by uzyskać jak najwyższą marżę na poziomie całej firmy. Ponieważ marża ta jest średnioważoną marżą poszczególnych produktów (albo inaczej, sumą marż poszczególnych produktów w proporcjach wynikających z udziału tych produktów w ogólnym wolumenie), jej wzrost można osiągnąć de facto tylko poprzez zwiększanie udziału w produkcji wyrobów wysokomarżowych.
Aby zorientować się, które wyroby mają wysoką marżę, dyrektorzy i planiści produkcji przygotowują zwykle ranking tych wyrobów według ich zyskowności (mierzonej kontrybucją marży, czyli różnicą między przychodami a kosztami zmiennymi, przypisanymi bezpośrednio do danego wyrobu). Wyroby, które zajmują najwyższe pozycje w rankingu, otrzymują wyższy priorytet w planie produkcji, a te, które plasują się na najniższych pozycjach, wykorzystywane są głównie do wypełnienia wolnych mocy przerobowych.
Do tego momentu oba podejścia do zarządzania portfelem produktów – stare i nowe – są podobne. Różnice zaczynają się dalej. Nowe podejście, opracowane, przypomnijmy, dla sytuacji pełnego wykorzystania mocy, zakłada bowiem cztery zmiany: (1) odrzucenie mierników zyskowności używanych dotychczas w rankingu produktów, (2) wykrycie wąskiego gardła w procesie produkcji i powiązanie z nim nowego miernika zyskowności, (3) rozszerzenie rankingu produktów o ranking transakcji oraz (4) dodatkowe wprowadzenie czytelnej segmentacji produktów po tym, jak będzie już znana ich dochodowość.
Odrzuć mierniki zyskowności używane dotychczas w rankingu produktów. Wbrew pozorom przygotowanie rankingu produktów pod kątem ich zyskowności nie jest łatwe. Zyskowność produktów może być bowiem obliczana za pomocą różnych mierników. Najczęściej używane są cztery: cena, masa marży, marża jednostkowa oraz marża na godzinę pracy wszystkich urządzeń. Niestety, żaden z tych tradycyjnych mierników nie jest odpowiedni w sytuacji, kiedy firma produkcyjna wykorzystuje wszystkie moce przerobowe i jednocześnie produkuje szeroki asortyment produktów.
Najprostszy miernik – cena – jest godny polecenia, ale w bardzo specyficznej sytuacji: tylko wtedy, gdy nie jest możliwe przypisanie bezpośrednich kosztów produktowi (na przykład ze względu na brak systemu kontrolingowego, rozliczającego koszty pośrednie na poszczególne produkty czy zamówienia) lub wtedy, gdy koszty zmienne są bliskie zeru (sytuacja niewystępująca w praktyce). Wskaźnik ten jest jednak bardzo ułomny ze względu na fakt, że zakłada identyczny poziom kosztów dla różnych technologicznie produktów. W efekcie decyzje podejmowane na podstawie tego miernika faworyzować będą sprzedaż produktów droższych, które często są na tyle skomplikowane technologicznie, że w rzeczywistości mogą być mniej rentowne dla firmy.
Masa marży, tj. iloczyn wolumenu i marży jednostkowej (gdzie marża jednostkowa to różnica między ceną a bezpośrednim kosztem zmiennym produkcji), ma już znacznie szersze zastosowanie, gdyż w przeciwieństwie do ceny dobrze odzwierciedla zyskowność produktu. Trzeba przy tym jednak pamiętać, że miernik ten faworyzuje zamówienia, które generują większą nadwyżkę ceny nad kosztem jednostkowym wytworzenia, a jednocześnie są duże (wolumenowo). Oznacza to, że zamówienia duże o niższej marży jednostkowej mogą być wyżej w rankingu firmy (stosującej ten miernik) niż małe zamówienia o wysokiej marży jednostkowej.
W związku z tym, iż masa marży może skłaniać przedsiębiorstwo do wybierania dużych zamówień o nie najwyższej rentowności jednostkowej, to powyższy miernik może nie być optymalny w sytuacji, gdy podaż (moce produkcyjne) jest ograniczona. W takiej sytuacji konieczne jest kierowanie się zyskownością jednostkową, tj. marżą na wyprodukowaną tonę. W efekcie najwyżej w rankingu będą te produkty, które najlepiej wyważają zyskowność produktu z wielkością zamówienia, które tę marżę generuje.
Problem z marżą jednostkową powstaje jednak wtedy, gdy fabryka produkuje bardzo zróżnicowany asortyment produktów, wykorzystując rozbudowany park maszynowy. W takiej sytuacji wyprodukowana tona jednego asortymentu wymagać może zaangażowania innych (i w innym stopniu) zasobów firmy niż tona innego asortymentu. W takiej sytuacji stosować należy marżę na czas pracy urządzeń, gdyż tylko taki miernik w pełni odzwierciedli faktyczne zaangażowanie ograniczonych zasobów fabryki oraz wygenerowanego przez te zasoby rezultatu.
Marża na godzinę pracy wszystkich urządzeń też nie jest jednak optymalnym miernikiem. U podstaw stosowania tego miernika leży bowiem przekonanie, że ograniczone moce produkcyjne dotyczą całego zakładu w równym stopniu. Tymczasem zróżnicowanie procesu produkcyjnego powoduje, że niektóre centra robocze czy maszyny są bardziej obciążone, inne mniej. Te, które są najbardziej obciążone i na które się czeka, stanowią de facto deficytowy zasób firmy, czyli tzw. wąskie gardło.
To właśnie przez pryzmat konkretnego „wąskiego gardła”, a nie wszystkich urządzeń w firmie, proponujemy patrzeć na zyskowność produktów. Nie chodzi tylko o to, by – ograniczając pole widzenia – ułatwić obliczenie zyskowności planistom produkcji. Jak się przekonaliśmy, wprowadzenie we wspomnianej polskiej hucie nowego miernika, związanego z „wąskim gardłem” (chodzi o marżę na godzinę pracy „wąskiego gardła”), daje dodatkową korzyść – pomaga skupić uwagę pracowników na konkretnej, możliwej do wykrycia, barierze zyskowności oraz pozwala wprowadzić praktyczny, czytelny dla wszystkich i spójny system podnoszenia zyskowności.
Wykryj „wąskie gardło” w procesie produkcji i powiąż z nim miernik zyskowności. „Wąskie gardła” są to te miejsca na ścieżce produkcyjnej, gdzie rzeczywiście występuje niedobór mocy przerobowej w stosunku do oczekujących zleceń. Pojęcie „wąskiego gardła” może dotyczyć jednego urządzenia, linii produkcyjnej, a nawet zakładu.
Oczywiście, „wąskie gardło” (ograniczenie mocy) może oznaczać nie tylko brak dostępności urządzeń, ale również brak zasobów, takich jak surowce, ludzie czy kapitał. Zamiast mówić o ograniczeniach mocy spowodowanych niską efektywnością urządzeń, równie dobrze możemy przecież mówić o ograniczeniach spowodowanych problemami z zaopatrzeniem w któryś z niezbędnych surowców albo niedoborem kadry obsługującej dany odcinek produkcji. Dlatego istotne jest, aby wyodrębnić wszystkie ograniczenia zasobów oraz określić ich zużycie na poszczególne produkty. W wyniku takiej analizy powinniśmy dowiedzieć się na przykład, że produkt A „zużywa”: 1 godzinę pracy na urządzeniu U1, 2 tony surowca oraz 3 specjalistów przez 5 godzin. Dopiero takie rozpisanie zasobów na konkretne produkty powinno być podstawą do analizy. Ponieważ jednak ani surowce, ani ludzie nie są zazwyczaj problemem, z analizy zużycia zasobów wyniknie zapewne, że „wąskim gardłem” jest ograniczony czas pracy na urządzeniach. Tego rodzaju ograniczenie jest najczęstsze i do niego najczęściej będziemy się odnosić w tym artykule.
Określenie mianem „wąskiego gardła” najbardziej obciążonych urządzeń jest pomocne, ale trudne do zastosowania. Przekonaliśmy się o tym, analizując dane dotyczące obciążenia poszczególnych centrów roboczych w firmie Aluminium Konin – Impexmetal. Z analiz wynikało, że prawdopodobnie występuje kilka „wąskich gardeł” jednocześnie. Prosty miernik w postaci marży na godzinę pracy takiego „wąskiego gardła” byłby w takiej sytuacji bezużyteczny. Z powodu odmiennych charakterystyk urządzeń trudno byłoby opisać w ten sposób realne ograniczenia.
Rozwiązaniem dla problemu wielu tzw. wąskich gardeł mogłoby być użycie modelu ekonometrycznego, opartego na programowaniu liniowym, który pozwala zdefiniować kombinację produktów maksymalizującą zysk przy danym ograniczonym dostępie do urządzeń. Taki model stworzyliśmy. W efekcie otrzymaliśmy listę produktów, których wytworzenie dawało najwyższą możliwą marżę, wraz z optymalnym wolumenem produkcji dla każdego z nich. Niestety, podejście to uniemożliwiało jednak porównanie produktów z różnych „wąskich gardeł”. Model dawał więc analitycznie optymalne rozwiązanie, ale nie pozwalał wyciągać ogólnych wniosków, na których oparta byłaby strategia handlowa i operacyjna huty. Model więc zarzuciliśmy jako niepraktyczny.
Zdecydowaliśmy się zatem wyodrębnić tylko jedno, ale największe „wąskie gardło”, czyli jedno najbardziej obciążone urządzenie (centrum robocze). Co prawda, oznaczało to utratę dokładności wyników, ale w zamian uzyskaliśmy proste narzędzie analityczne z łatwymi do interpretacji wynikami.
Zważywszy, że „wąskie gardło” zostało ze względów praktycznych ograniczone do jednego urządzenia, oparty na nim miernik zyskowności produktów – zwany marżą na godzinę „wąskiego gardła” – również jest obliczany dla jednego urządzenia. Miernik ten stanowi część masy marży, jaka przypada na jednostkę pracy urządzenia określonego jako „wąskie gardło”. Lub inaczej mówiąc, jest to marża, jaką możemy osiągnąć, angażując nasz najbardziej deficytowy zasób. Ten nowy sposób obliczenia zyskowności może przy tym przynieść całkiem odmienny efekt niż tradycyjne mierniki – inna może być bowiem zyskowność poszczególnych produktów i inny ranking ich atrakcyjności.
Rozszerz ranking produktów o ranking transakcji. Kiedy już obliczyliśmy zyskowność produktów według nowego miernika, możemy uszeregować je w formie rankingu. Ponieważ nowy miernik – marża na godzinę „wąskiego gardła” – jest stosunkiem marży całkowitej i czasu pracy na „wąskim gardle”, dlatego na szczycie tego rankingu znajdą się produkty o wysokiej marży i niskim zaangażowaniu „wąskiego gardła”, a na dole – produkty o niskiej marży oraz czasochłonne z punktu widzenia „wąskiego gardła”.
W przeciwieństwie do firm z innych branż – producenci towarów standardowych nie mają dużego pola manewru ani w obszarze redukcji kosztów, ani w obszarze wzrostu przychodów.
Ułożenie rankingu produktów według przedstawionych wskazówek powinno przynieść optymalne zalecenia co do kolejności produkcji. Tak jednak nie jest. Opisany ranking produktów ma bowiem pewną wadę, polegającą na używaniu średnich wartości dla poszczególnych parametrów służących do jego obliczenia. Jak poważna może to być wada, widać na przykładzie z ramki Od rankingu produktów do rankingu transakcji. Przedstawiliśmy w niej przykładowe zlecenia, jakie czekają na realizację w kolejnym miesiącu, w podziale na produkty X, Y, Z, V. Jak widać z tego zestawienia, gdyby firma kierowała się w układaniu rankingu tylko kryterium produktów o najwyższych średnich marżach (czyli w tym przypadku – wybrałaby produkty X i Y), pozbawiłaby się możliwości zarobienia równie wysokiej, a czasem i wyższej marży, jaką generują niektóre transakcje na innych, średnio biorąc, gorszych produktach (jak choćby produkt Z dla rynku francuskiego).

Przykład ten dowodzi, że posługując się rankingiem produktów, a zatem pewnymi uśrednieniami, możemy zauważyć jedynie ogólną relację pomiędzy produktami. Problem różnicy między uśrednioną zyskownością produktów a zyskownością konkretnych transakcji ma szczególne znaczenie wtedy, gdy przedsiębiorstwo nie stosuje dla wszystkich klientów jednakowej ceny albo wręcz różnicuje politykę cenową w zależności od rynku docelowego. Jeśli klienci posiadają różne warunki handlowe, uzależnione na przykład od regionu, branży czy skali obrotów, wówczas różnice rentowności w odniesieniu do jednego produktu mogą być dość znaczne.
Z tego powodu postanowiliśmy stworzyć nie tylko ranking produktów, ale także ranking transakcji. Ten pierwszy pokazuje uśrednioną pozycję produktu na mapie rentowności, warto go więc analizować w dłuższym okresie i używać do opracowywania strategii handlowej. Natomiast ranking transakcji, który przeciwstawia uśrednione normatywne koszty bieżącym przychodom z poszczególnych transakcji, ma świetne zastosowanie w procesie zarządzania strumieniem zamówień. W krótkim okresie pozwala on firmie podejmować optymalne decyzje dotyczące alokacji ograniczonych mocy produkcyjnych.
Ponieważ nawet produkty należące do tej samej kategorii mogą mieć w firmie różną zyskowność, a do tego zyskowność może się zmieniać w czasie, rankingi te trudno jest wytłumaczyć pracownikom. Dlatego poza rankingami produktów i transakcji w nowym podejściu do optymalizacji produkcji znajduje się też nowy, czytelny dla wszystkich sposób oznaczenia klas zyskowności. Uznaliśmy bowiem, że wiedza na temat zyskowności produktów nie powinna być ograniczona do wąskiego grona planistów – chcieliśmy, aby cała huta kierowała się zyskownością, aby zagadnienie to rozumieli w równym stopniu pracownicy planowania, produkcji i sprzedaży.
Wprowadź czytelną segmentację produktów. Sposobem na lepszą czytelność wyników zyskowności jest segmentacja produktów na 4 kategorie (kwartyle w rankingu): A, B, C i D. Wyroby oznaczone kategoriami A i B oznaczają dla przedsiębiorstwa najatrakcyjniejszy asortyment produkcyjny z punktu widzenia uzyskiwanej marży, podczas gdy wyroby oznaczone kategoriami C i D stanowią najmniej zyskowny obszar asortymentowy. Celem biznesowym tak zarządzanego przedsiębiorstwa, w każdym aspekcie, powinno być zatem skupienie się na zwiększeniu sprzedaży produktów z kategorii A i B kosztem produktów C i D.
Segmentacja na kategorie A, B, C i D pozwala także usprawnić komunikację wewnętrzną na temat rezultatów szeregowania produktów. Zamiast mówić, że „firmie zależy na wytwarzaniu i sprzedawaniu jak największej partii tego właśnie produktu, bo generuje on 120 złotych marży na godzinę pracy na konkretnym urządzeniu”, wystarczy powiedzieć pracownikom z działów sprzedaży, marketingu, produkcji, zaopatrzenia czy strategii, że „firmie zależy na danym produkcie, bo jest on w kategorii A”. Segmentacja ABCD pozwala także powiązać podejście do optymalizacji portfela produktów z pozostałymi elementami systemu optymalizacji produkcji (na przykład z omawianym w dalszej części systemem motywacyjnym, który premiuje zdecydowanie najbardziej sprzedaż produktów z kategorii A).
Ranking produktów i transakcji oraz segmentacja ABCD wskazują firmie, jakie produkty warto wytwarzać w pierwszej kolejności, a jakie – w dalszej. Informacje te są cenne, bo pokazują źródła podnoszenia wartości firmy, ale o ich prawdziwej przydatności decyduje to, czy i jak zostaną wykorzystane w praktycznym planowaniu produkcji. Innymi słowy, ważne jest, jak te informacje zostaną użyte do alokacji mocy produkcyjnych.
Zarządzanie mocami produkcyjnymi
Aby w pełni wykorzystać potencjał tkwiący w nowym, zoptymalizowanym rankingu produktów, szefowie firmy muszą dokonać zmian w dotychczasowych metodach planowania mocy produkcyjnych i sterowania nimi. Model alokacji mocy, jaki do niedawna stosowała omawiana w artykule huta Aluminium Konin – i jaki nadal stosuje większość firm wytwarzających produkty standardowe – wydaje się w odniesieniu do prezentowanej przez nas metody stosunkowo nieefektywny. W uproszczeniu przebiega on tak, że inicjujący cały proces dział produkcji tworzy plan wolnych mocy produkcyjnych w danym okresie, w podziale na działy lub/i rejony sprzedaży. Następnie dział handlowy wypełnia ten plan konkretnymi zamówieniami zgodnie z zasadą FIFO, czyli przyjmuje do realizacji zamówienia w takiej kolejności, w jakiej spływają one do firmy. Podstawową jednostką takiego planu jest tona.
Tak skonstruowany proces nie nadaje się do zarządzania firmą nastawioną na intensyfikację marży przy ograniczonych mocach produkcyjnych. Ma bowiem trzy podstawowe wady.
Brak elastyczności z powodu oparcia prognoz produkcji na danych historycznych. Obecnie stosowany proces alokacji mocy nie dostosowuje budżetu i planów sprzedaży do faktycznych możliwości produkcji. Wykorzystanie mocy produkcyjnych firmy zależy bowiem z jednej strony od ilości zleceń, ale z drugiej – również od zmieniającego się podziału tych zleceń na poszczególne grupy asortymentowe (czyli od struktury asortymentu). Jeśli jednak budżet produkcji oparty jest na pewnej średniej strukturze dotychczasowych zleceń, nie może być dobrze dopasowany do faktycznej sprzedaży realizowanej w budżetowanym okresie. W omawianej hucie powodowało to bądź niedobory mocy na pewnych urządzeniach, bądź też niepełne wykorzystanie tych mocy z powodu błędnego oszacowania struktury asortymentowej. Obie sytuacje skutkowały utratą marży.
Zróżnicowanie procesu produkcyjnego powoduje, że niektóre centra robocze czy maszyny są bardziej obciążone, inne mniej. Te, które są najbardziej obciążone i na które się czeka, stanowią de facto deficytowy zasób firmy, czyli tzw. wąskie gardło.
Brak orientacji na podnoszenie marży z powodu stosowania zasady FIFO. Przyjmowanie zamówień metodą FIFO oznacza tak naprawdę rezygnację z kryterium rentowności asortymentu. W hucie Aluminium Konin, w której wdrażaliśmy optymalizację produkcji, dochodziło do sytuacji, że bardziej atrakcyjne zamówienia ustępowały miejsca mniej atrakcyjnym, gdyż tamte zostały złożone wcześniej. Było to zrozumiałe z punktu widzenia kontaktów z klientem, ale powodowało nieefektywne wykorzystanie potencjalnego portfela zamówień i skutkowało obniżeniem średniej marży realizowanej w danym okresie.
Nieefektywne zużycie surowców z powodu złej komunikacji między działami. W tradycyjnej firmie produkującej standardowe wyroby pion handlowy przekazuje informacje o strukturze asortymentu do pionu produkcyjnego dopiero po przyjęciu zamówienia. W omawianej hucie system ten powodował, że dział zakupów miał ograniczony czas na sprowadzenie odpowiednich surowców. W efekcie albo ich brakowało, albo było za dużo, nie udawało się też doprowadzić do optymalizacji zapasów ani zagwarantować produkcji w toku.
Jak widać, zastosowanie tradycyjnego procesu alokacji mocy nie jest w stanie poprawić wyniku firmy. Niewiele w tym pomoże proponowane wcześniej posegmentowanie produktów na kategorie A, B, C, D, czy też wprowadzenie systemu motywacyjnego promującego sprzedaż asortymentów z kategorii A i B (o czym później). Pozostając w koleinach starych sposobów działania, sprzedawca wciąż woli przynieść duże zamówienie na produkt z kategorii D, „zapychając” moce produkcyjne w przyszłości, niż nie zdobyć żadnego zamówienia na produkty wysokomarżowe (produkty w kategorii A mogą w praktyce okazać się trudniejsze do ulokowania na rynku). Istota efektywnego procesu alokacji mocy produkcyjnych tkwi więc w świadomym sterowaniu zamówieniami, które zostały przypisane do jednej z czterech kategorii rentowności – począwszy od A (grupa produktów o najwyższej rentowności dla przedsiębiorstwa), a skończywszy na D (grupa produktów o najniższej rentowności dla przedsiębiorstwa).
Aby wyeliminować te wszystkie ograniczenia w obecnym procesie alokacji mocy, zdecydowaliśmy się gruntownie zmodyfikować ten proces i nadać mu nową nazwę „sterowania strumieniem zamówień”. Obecnie wygląda on następująco:
Etap 1. Tworzenie indywidualnych prognoz sprzedaży przez sprzedawców. Ponieważ prognozowanie sprzedaży przez pion produkcji jest nieefektywne, przekazaliśmy tę funkcję pionowi handlowemu, a dokładniej – poszczególnym handlowcom. Odeszliśmy też od centralnego szacowania sprzedaży na podstawie danych historycznych.
Jak się przekonaliśmy we wspomnianej polskiej hucie, wprowadzenie nowego miernika związanego z „wąskim gardłem” pomaga skupić uwagę pracowników na konkretnej, możliwej do wykrycia, barierze zyskowności.
W ramach nowego procesu zadaniem każdego handlowca jest prognoza swojego portfela transakcji w okresach miesięcznych. Sprzedawca jest zobowiązany do oszacowania zarówno liczby transakcji, jak i ceny, którą zamierza osiągnąć w danych warunkach rynkowych. Aby wyeliminować możliwości manipulacji prognozami, ocenę ich sprawdzalności włączono do systemu motywacyjnego handlowców (o którym mowa jest dalej). Handlowcy zostali w ten sposób zmotywowani do rzetelnego przedstawiania obrazu swojego mikrorynku (portfela klientów).
Prognozowanie sprzedaży nie obyło się w hucie bez problemów. Jednym z najbardziej dolegliwych była olbrzymia ilość oferowanych produktów, wynosząca ponad 5000 pozycji asortymentowych. Przygotowanie prognozy sprzedaży dla tak szerokiego portfela produktów było niemożliwe. Z drugiej strony opracowanie ogólnej prognozy ilościowej też nie byłoby właściwe, ponieważ prognoza ta nie dawałaby możliwości zoptymalizowania portfela produktów. Aby osiągnąć zamierzony efekt, wprowadziliśmy więc pojęcie grupy planistycznej. Grupa planistyczna skupia względnie podobne technologicznie produkty, które obciążają moce produkcyjne w zbliżony sposób. Całkowita liczba grup planistycznych w hucie wyniosła około 400, przy czym w praktyce handlowiec posługiwał się 30 – 50 grupami planistycznymi. W ten sposób zminimalizowaliśmy całkowity błąd modelu, na który składał się błąd prognozy (im większa liczba produktów, tym trudniej prognozować) oraz błąd planowania (im szersze grupy planistyczne, tym większa niedokładność w obłożeniu mocy produkcyjnych).
Etap 2. Zebranie prognoz sprzedawców i stworzenie rankingu transakcji. Dzięki powierzeniu prognozowania sprzedawcom zyskaliśmy niespotykaną wcześniej szczegółowość prognoz. Prognozy były bowiem tworzone w podziale na poszczególnych klientów i produkty, a dodatkowo podsumowywane na rejony i sprzedaż ogółem.
Teraz te szczegółowe prognozy trzeba było zebrać, a każdej prognozowanej transakcji przypisać parametry kosztowe. Porównując koszty i czasy pracy na urządzeniach z cenami podanymi w prognozach handlowców, otrzymaliśmy ranking transakcji liczony według kryterium czasu pracy na „wąskim gardle”. Następnie podzieliliśmy wszystkie transakcje na cztery równe części i każdemu kwartylowi przypisaliśmy inną kategorię: począwszy od A dla najlepszych, a skończywszy na D dla najgorszych.
Ranking transakcji zestawiliśmy następnie z informacjami o dostępności urządzeń oraz podstawowych surowców w prognozowanym okresie. Posiadając normatywny uśredniony czas wykonania produktu dla każdej grupy planistycznej osobno, w prosty sposób mogliśmy określić zdolności produkcyjne w danym okresie oraz zarekomendować, które pozycje produkcyjne są preferowane ze względu na generowaną przez nie marżę.
Etap 3. Stworzenie planu sprzedaży. Kiedy już poznaliśmy ograniczenia mocy i ranking transakcji, dział handlowy przygotował ramowy plan sprzedaży. Oczywiście, firma nie może mechanicznie przenieść tego planu na swoich klientów. Utrzymuje bowiem z nimi różne relacje – od niektórych otrzymuje rzadkie i małe zlecenia, a od innych stałe, o dużej wartości. W takim przypadku należy zbadać, czy siła relacji z klientami i wynikające z tego potencjalne korzyści rekompensują nam utratę zysków w bieżącym okresie. Dla klientów strategicznych warto w każdym miesiącu zarezerwować osobną pulę mocy produkcyjnych.
Po uwzględnieniu ustępstw dokonanych na rzecz klientów strategicznych plan przygotowany przez dział handlowy zostaje przekazany do realizacji poszczególnym handlowcom. Tym samym następuje rezerwacja mocy produkcyjnych dla poszczególnych handlowców. Oznacza to jednocześnie, że zasada „kto pierwszy, ten lepszy” nie ma już zastosowania.
Etap 4. Monitorowanie realizacji planu. Nie zawsze wszystko idzie zgodnie z planem. Realizacja planu musi więc podlegać monitoringowi. Jeśli w pewnych obszarach zgłaszane są opóźnienia lub gdy handlowiec chce zweryfikować swoją prognozę, następuje korekta planu, a uwolnione moce przyznawane są najlepszym klientom w rankingu, spośród tych, którzy zostali odrzuceni.
Etap 5. Dynamiczna realokacja mocy. Poprzednie cztery etapy tworzą optymalny proces planowania produkcji. Optymalny, czyli taki, który pozwala z jednej strony maksymalnie wykorzystać moce produkcyjne, a z drugiej strony – zmaksymalizować marżę na danym wolumenie. Problem w tym, że to planowanie jest optymalne, ale z punktu widzenia firmy, a nie jej klientów. Oparte też jest na prognozach, a nie na rzeczywistych zamówieniach. Może się więc zdarzyć, że mimo wstępnego zainteresowania klienci ostatecznie nie złożą zamówień w naszej firmie. Powyższemu analitycznemu procesowi, opartemu na prognozach zamówień, musi więc towarzyszyć drugi proces – dynamicznej realokacji mocy w sytuacji, gdy prognozy rozmijają się z faktycznie składanymi zamówieniami.
Zanim jednak powiemy, na czym polega dynamiczna realokacja mocy, zastanówmy się, dlaczego jest ona w ogóle potrzebna. Otóż likwiduje ona dwa podstawowe zagrożenia, jakie wiążą się z optymalnym dla firmy prognozowaniem zamówień.
Niebezpieczeństwo pogorszenia się jakości obsługi klientów. Aby zachować dotychczasowe standardy jakości obsługi klientów, firma będzie się starała możliwie jak najszybciej przekazać im informację potwierdzającą przyjęcie zlecenia do realizacji. W przypadku wyrobów zaliczanych do kategorii A i B szybkie potwierdzanie zamówień nie stanowi większego ograniczenia, bo wyroby te są bardzo atrakcyjne dla firmy. Gorzej jest w przypadku mniej atrakcyjnych dla przedsiębiorstwa wyrobów z kategorii C i D. Stosunkowo krótki okres potwierdzania odbiorcom zleceń z tych kategorii może bowiem przyczynić się do zablokowania dostępnych mocy dla nieco później zgłoszonych przez klientów wyrobów z kategorii A lub B. W tym przypadku sama znajomość optymalnego miksu (wachlarza) produktów nie pozwoli poprawić wyniku finansowego przedsiębiorstwa. Należy więc przyjąć, że produkty C i D będą miały dłuższe czasy dostawy niż produkty A i B.
Niepełne wykorzystanie wolnych mocy produkcyjnych. Innym, równie istotnym zagrożeniem dla efektywnego procesu alokacji mocy jest ustalenie okresu przyjmowania zleceń produkcyjnych tylko dla kategorii A lub B, podczas gdy zlecenia z kategorii C i D byłyby w tym okresie odrzucane. Gdyby po zamknięciu okresu przyjmowania zleceń okazało się, że poziom wykorzystania mocy w kategoriach A lub B jest niski, firma mogłaby mieć trudności z zapełnieniem mocy nawet mniej atrakcyjnymi zleceniami z kategorii C lub D. Zlecenia te, wstępnie odrzucone przez firmę, mogłyby być bowiem zrealizowane przez konkurencję. Alokacja mocy pod dyktando reguł preferencyjnego traktowania najatrakcyjniejszych kategorii produktowych uwzględnia wprawdzie wiedzę na temat optymalnego miksu produktów, lecz naraża firmę na ryzyko niewykorzystania dostępnych mocy produkcyjnych, a tym samym – na ryzyko pogorszenia wyniku finansowego.
Aby rozwiązać powyższe problemy, trzeba uzupełnić bieżące prognozowanie zamówień właśnie o wspomniany wcześniej nowy element – dynamiczną realokację mocy. Realokacja polega na aktualizowaniu prognoz sprzedaży w zależności od tego, jak szybko spływają faktyczne zamówienia w poszczególnych kategoriach. Prześledźmy to na przykładzie. Uwzględniając prognozy otrzymane od handlowców, przedsiębiorstwo planuje, że 40% produkcji z terminem realizacji na koniec maja 2007 roku będą stanowiły produkty kategorii A. Z doświadczenia firmy wynika, że aby było to możliwe, 80% tych zamówień musi spłynąć do firmy na miesiąc przed rozpoczęciem produkcji. Jeśli spłynie ich mniej, na przykład tylko 60%, istnieje ryzyko niewykorzystania mocy produkcyjnych. Wtedy konieczna jest realokacja – czyli przeniesienie – mocy przydzielonych kategorii A do kategorii B. Zawsze korzystniejsze jest wyprodukowanie produktu nawet z kategorii D, o ile generuje on pozytywną marżę kontrybucji, niż pozostawienie wolnych mocy produkcyjnych. Mechanizm alokacji mocy (w tym jej dynamicznej realokacji) podsumowuje ramka Nowa alokacja mocy produkcyjnych – proces i główne zasady.

Pozostałe elementy metody
Zarządzanie ofertą produktów oraz zarządzanie mocami produkcyjnymi to najważniejsze elementy nowego procesu optymalizacji portfela produktów. Ale na nich zmiany się nie kończą. Jak wykazaliśmy bowiem wcześniej, zmiana jednego elementu procesu musi pociągnąć za sobą zmianę w pozostałych elementach. Aby więc cały proces optymalizacji działał sprawnie i przynosił wyniki, powyższe dwa elementy muszą być wspomagane przez trzy kolejne: system motywacyjny, dynamiczne zarządzanie przychodami oraz nowe struktury organizacyjne.
System motywacyjny premiujący za sprzedaż produktów wysokomarżowych i uzyskaną cenę. System motywacyjny powinien kierunkować sprzedawców na osiągnięcie trzech celów: (1) sprzedaży większej ilości produktów z kategorii A i B kosztem produktów z kategorii C i D, (2) sprzedaży każdego produktu po jak najwyższych cenach (przekraczanie cen minimalnych) oraz (3) trafnego prognozowania sprzedaży w poszczególnych kategoriach A, B, C, D. Cele są wprawdzie tylko trzy, ale razem tworzą dość skomplikowany system zależności. Tymczasem mechanika systemu motywacyjnego – by była skuteczna – musi być maksymalnie prosta. System musi wysyłać czytelny sygnał dla sprzedawców, w jaki sposób powinni się zachowywać, aby otrzymać jak najwyższą premię.
Zastosowany w hucie nowy system premiowy jest właśnie taki: prosty i czytelny. Określa: (1) wysokość premii za tonę sprzedanego produktu zależnie od przynależności produktu do kategorii A, B, C i D (na przykład 10 złotych za sprzedaż 1 tony produktu A oraz 1 złoty za sprzedaż 1 tony produktu D) oraz (2) dodatkową premię za przekroczenie ceny minimalnej dla każdego produktu.
Dodatkowo sprzedawcy są zobowiązani do przygotowania prognoz dotyczących wolumenu sprzedaży wyrobów oraz marży zysku, w podziale na kategorie A, B, C i D. Prognoza obejmuje najbliższy miesiąc, który ma dostępne moce produkcyjne. Rozliczenie uzyskanej przez sprzedawcę premii jest dokonywane na podstawie macierzy General Electric (patrz ramka Nowy system motywacyjny). Oznacza to, że nagradzamy handlowców jednocześnie za maksymalizację sprzedaży oraz za trafne prognozowanie.


W nowym podejściu do optymalizacji produkcji znajduje się nowy, czytelny dla wszystkich sposób oznaczenia klas zyskowności – chcieliśmy, aby cała huta kierowała się zyskownością, aby zagadnienie to rozumieli w równym stopniu pracownicy planowania, produkcji i sprzedaży.
Dynamiczne zarządzanie ceną. Poprzednie etapy optymalizacji produkcji, których owocem są m.in. prognozy zamówień, ranking transakcji i system motywacyjny, pozwalają firmie ustalić, co najbardziej opłaca jej się produkować. Ale współczesne firmy działają na bardzo dynamicznym rynku, gdzie popyt i podaż zmieniają się z dnia na dzień. Dlatego warto brać pod uwagę nie tylko to, co prawdopodobnie zgłoszą nam klienci (poprzez prognozy sprzedawców) i co później posłuży nam do zapewnienia sobie maksymalnego zysku, ale też to, co dzieje się na rynku, zwłaszcza w aspekcie aktualnego popytu i naszych możliwości podażowych. Dynamiczna realokacja mocy, o której wspomnieliśmy, jest pierwszym krokiem w tym kierunku – pozwala przenieść niewykorzystane moce z jednej kategorii na drugą, gdzie popyt jest większy. Ale realokacja mocy jedynie odzwierciedla to, co dzieje się na rynku, a nie aktywnie wpływa na ten rynek.
W hucie Aluminium Konin zastosowano więc dodatkowe narzędzie, które aktywnie kształtuje rynek, dostosowując bieżącą podaż firmy do popytu ze strony klientów. Narzędzie to nazwaliśmy dynamicznym zarządzaniem ceną. Ma ono wzmocnić wdrożenie wcześniejszych koncepcji – optymalizacji miksu produktów, alokacji mocy produkcyjnych na cztery kategorie oraz prognozowania wypełniania mocy fabryki. Polega zaś na dopasowaniu cen jednostkowych w danym momencie do aktualnej struktury podaży i popytu na mikrorynku. Podejście to składa się z dwóch elementów. Po pierwsze, przedsiębiorstwo blokuje moce produkcyjne dla poszczególnych kategorii produktów na podstawie prognoz popytu dla każdej z tych kategorii. Zwykle robi to dla okresów 1- lub 2‑tygodniowych, bo taka jest zwyczajowa jednostka czasu, kiedy planuje się i łączy zamówienia w celu ich produkcji. Ważne jest przeznaczanie jak największej części mocy produkcyjnych pod produkty wysokomarżowe kosztem produktów niskomarżowych (AB vs CD). Po drugie, niezbędne jest prognozowanie, na podstawie danych historycznych, tempa wypełniania mocy produkcyjnych w czasie. Prognoza taka pozwoli na określenie realnego prawdopodobieństwa wypełnienia mocy produkcyjnych w poszczególnych kategoriach produktów (wysoko- i niskomarżowych), przy założeniu danych cen i określonej struktury rezerwacji mocy. Gdyby się okazało, że pion handlowy wypełnia moce dla produktów wysokomarżowych wolniej, niż zakładał plan, i w związku z tym istnieje ryzyko, że pewna część mocy nie zostanie obłożona na czas, menedżer dysponuje dwoma narzędziami: ceną i strukturą mocy. Po pierwsze – może obniżyć ceny (lub zwiększyć rabaty), aby zacząć szybciej wypełniać moce w tej kategorii. Po drugie – może przeznaczyć dla produktów niskomarżowych część mocy zarezerwowanych wcześniej dla produktów wysokomarżowych. Takie udoskonalenie pozwala nie tylko zrównać popyt z podażą, ale także utrzymać najwyższy poziom obsługi klienta – jeżeli klient koniecznie chce odebrać w danym terminie produkt C, sprzedawca może zarezerwować moce, pod warunkiem że uzyska nieco wyższą cenę, na przykład taką, która zapewni marżę porównywalną z produktem B.
Powyższe narzędzie nie jest nowe. Wywodzi się bowiem z technik yield management, które są stosowane od wielu lat w branżach logistycznej i transportowej (patrz wcześniejsza ramka Nowa alokacja mocy produkcyjnych – proces i główne zasady). Nowe jest natomiast zastosowanie tego narzędzia w przemyśle.
Organizacja Marketingu Strategicznego. Aby wdrożyć w przedsiębiorstwie produkcyjnym opisane koncepcje, konieczne jest powołanie pionu Marketingu Strategicznego. Pełni on rolę bufora między działami sprzedaży i produkcji, dbając o to, by sprzedaż posiadała informację na temat grup asortymentowych o najwyższej i najniższej rentowności dla przedsiębiorstwa, a produkcja skupiała się na ich jak najlepszej realizacji. W szczególności Marketing Strategiczny powinien pełnić trzy główne funkcje.
Po pierwsze, powinien ustalać i na bieżąco monitorować realizację polityki cenowej, m.in. poprzez stosowanie techniki yield management, dopasowującej ceny jednostkowe w danym momencie do aktualnej struktury podaży i popytu na mikrorynku. Oznacza to, że sprzedawcy terenowi, przed potwierdzeniem ceny i terminu realizacji zamówienia, muszą konsultować się z Marketingiem Strategicznym.
Po drugie, dział Marketingu Strategicznego powinien dbać o alokację mocy, czyli ustalać założenia metodologiczne do kryterium rentowności, komponować optymalny miks produktów, opracowywać referencyjny plan sprzedaży na podstawie prognoz sprzedaży, analizy odchyleń w realizacji prognozowanego wolumenu oraz marży zysku.
Po trzecie wreszcie, nowy dział powinien prowadzić badania rynkowe zmierzające do sprawdzenia, jaka strategia sprzedaży zapewnia optymalny miks produktów. W praktyce oznacza to ciągłe poszukiwanie potencjalnych nowych klientów, którzy powinni być zainteresowani produktami A i B.
***
Nowa metoda optymalizacji portfela produktów, wdrożona po raz pierwszy w hucie Aluminium Konin – Impexmetal, ma trzy zasadnicze atuty. Po pierwsze, przynosi znakomite efekty bez dodatkowych nakładów. Wykorzystuje bowiem istniejące zasoby firmy i – dzięki lepszemu spożytkowaniu informacji tkwiących wewnątrz przedsiębiorstwa – ukierunkowuje je na główne źródła generowania wartości. Po drugie, jest prosta w konstrukcji i łatwa do komunikowania – stanowi platformę porozumienia dla wszystkich działów, z których każdy ma zwykle swój własny punkt widzenia i swoje własne cele. Świadomie na każdym kroku wprowadzaliśmy uproszczenia (na przykład kategoryzując produkty na A, B, C, D), zależało nam bowiem na tym, by menedżerowie nie pozostali z doskonałym modelem teoretycznym, tylko by otrzymali praktyczny zestaw narzędzi do maksymalizacji wartości przedsiębiorstwa.
Po trzecie, metoda ta, a w zasadzie wynikająca z niej wiedza na temat optymalnego portfela produktów, pozwala firmie efektywniej alokować środki inwestycyjne w horyzoncie długoterminowym. Nakłady finansowe powinny być bowiem bezdyskusyjnie przeznaczane na rozwój grup asortymentowych znajdujących się w kategorii A lub B.
Oczywiście, zaprezentowana tu metoda ma również swój minus – została sprawdzona dotychczas tylko w jednej firmie. Ale to jest także jej ukryty atut – ten, kto pierwszy zastosuje nową metodę, może liczyć na osiągnięcie większych zysków niż jego konkurenci. My to widzimy już dziś, choć od wdrożenia nowej metody upłynęło zaledwie kilka miesięcy.