Reklama
Dołącz do liderów przyszłości i zdobądź przewagę! Sprawdź najnowszą ofertę subskrypcji
Analityka i Business Intelligence
Magazyn (Nr 15, grudzień 2022 - styczeń 2023)

Zachowanie prywatności udostępnianych danych jest możliwe, ale…

1 grudnia 2022 13 min czytania
Zdjęcie Simson L. Garfinkel - Starszy analityk danych w Biurze Dyrektora ds. Informatyki w Departamencie Bezpieczeństwa Wewnętrznego USA
Simson L. Garfinkel
Zdjęcie Clair McKay Bowen - Naukowczyni z Urban Institute, zajmująca się kwestiami prywatności i poufności danych.
Clair McKay Bowen
Zachowanie prywatności udostępnianych danych jest możliwe, ale...

Istnieje sposób na efektywną ochronę danych osobowych podczas ich współdzielenia, jednak wymaga on wiedzy specjalistycznej. Trzeba też liczyć się z pewnymi kompromisami.

W miarę jak różne organizacje coraz częściej starają się przetwarzać dane, zarówno na użytek wewnętrzny, jak i w celu udostępniania ich partnerom w cyfrowych ekosystemach, pojawia się coraz więcej przepisów nakazujących wzmocnienie ochrony prywatności klientów. Niestety, tradycyjne sposoby zabezpieczania informacji poufnych mogą prowadzić do spektakularnych katastrof, narażając organizacje na procesy sądowe, kary administracyjne oraz utratę dobrej reputacji.

Od lat dwudziestych ubiegłego wieku statystycy opracowali wiele metod ochrony tożsamości i danych wrażliwych. Jednak ostatnie doświadczenia wskazują, że nawet po usunięciu nazwisk, numerów ubezpieczenia społecznego i innych szczegółów umożliwiających identyfikację doświadczony haker może przejąć edytowane rejestry, połączyć je z publicznie dostępnymi informacjami i tym sposobem zidentyfikować ludzi stojących za poszczególnymi rekordami albo ujawnić poufne dane, takie jak trasy podróży znanych osób czy urzędników państwowych. Im więcej informacji udostępnia organizacja, tym większe jest prawdopodobieństwo ujawnienia danych umożliwiających identyfikację osób, niezależnie od tego, jakie środki ochrony się stosuje.

Zbieranie szczegółowych, a co za tym idzie – użytecznych danych jest zatem z natury sprzeczne z ochroną prywatności.

Aby rozwiązać powyższy dylemat, informatycy opracowali matematyczną metodę nazwaną prywatnością różnicową (differential privacy – DP), której działanie opiera się na kompromisowym podejściu. Aby zapewnić skuteczną ochronę prywatności, należy „odpuścić sobie”, oczywiście do pewnego momentu, dokładność danych. Co więcej, DP daje organizacjom możliwość pomiaru oraz kontroli takiego kompromisu. Wielu badaczy uważa obecnie DP za złoty standard pozwalający użytkownikom na publikowanie statystyk albo tworzenie nowych zbiorów danych przy jednoczesnym kontrolowaniu stopnia, w jakim prywatność jest narażona na naruszenia.

Jak działa prywatność różnicowa

Wynaleziony w 2006 roku mechanizm DP działa poprzez dodawanie niewielkich błędów, zwanych szumem statystycznym, albo wprost do danych bazowych, albo już do algorytmu służącego do obliczeń statystycznych. Ogólnie rzecz biorąc, im większy szum, tym lepsza ochrona prywatności, ale mniej dokładny wynik. Choć szum statystyczny stosowany jest od dziesięcioleci, przełomowość technologii DP polega na tym, że nadaje ona wartość liczbową utracie prywatności, z którą wiąże się każdorazowo udostępnienie danych. Organizacje mogą kontrolować wielkość szumu statystycznego. Wiedzą zatem, na ile wyniki statystyczne odbiegają od rzeczywistości, a przy tym lepiej chronią prywatność dawców danych.

Biuro Spisu Powszechnego Stanów Zjednoczonych już w 2008 roku opracowało swój pierwszy produkt zawierający element prywatności różnicowej. OnTheMap dostarcza szczegółowych statystyk dotyczących wynagrodzeń oraz dojazdów do pracy w różnych obszarach geograficznych. Można go użyć na przykład do określenia, ile osób mieszkających w Montclair w stanie New Jersey dojeżdża do pracy na dolnym Manhattanie, wraz z uwzględnieniem ich średniego wieku, zarobków, przynależności etnicznej i branży, w której pracują. Aby zapobiec wykorzystaniu tych informacji do identyfikacji pojedynczej osoby dojeżdżającej do pracy, miejsca jej pracy i wysokości zarobków, DP dodaje szum do oryginalnych danych, zmieniając dla każdego modułu spisowego liczbę osób mieszkających i pracujących.

Od czasu wprowadzenia DP Biuro wykorzystało ten mechanizm do przeprowadzenia spisu powszechnego w 2020 roku, a Urząd Skarbowy i Departament Edukacji Stanów Zjednoczonych stosują go do publikowania statystyk dotyczących dochodów absolwentów szkół wyższych. Ponad 20 firm, w tym Apple, Google, Meta, Microsoft i Uber, poinformowało, że już wdrożyło albo rozważa zastosowanie DP.

Kontrowersje pojawiły się w zeszłym roku, gdy Biuro Spisu Powszechnego użyło DP do ochrony danych używanych przez władze stanowe do wyznaczania okręgów wyborczych. Wszystkie rejestry w tym pliku były syntetyczne, wygenerowane przez model statystyczny stworzony i zabezpieczony przy użyciu DP. Demografowie oraz badacze społeczni sprzeciwili się zastosowaniu DP, ostrzegając, iż szum statystyczny będzie tak duży, że wyniki mogą stać się bezużyteczne. Alabama wraz z 16 innymi stanami wniosła w kwietniu 2021 roku pozew o niedopuszczenie do wprowadzenia DP, twierdząc, że uniemożliwiłoby to dokładne wyznaczanie okręgów wyborczych na szczeblu lokalnym. Jednakże w czerwcu 2021 roku trzyosobowy zespół sędziowski odrzucił główne żądania pozwu, a Alabama wycofała go we wrześniu 2021 roku.

Zdolność DP do dostosowania poziomu ochrony prywatności lub jej utraty jest zarówno jej mocną stroną, jak i słabością. Z jednej strony po raz pierwszy osoby zajmujące się ochroną prywatności mają możliwość ilościowego określenia ryzyka związanego z ujawnieniem poufnych danych. Z drugiej natomiast zmusza to właścicieli danych do pogodzenia się z niewygodną prawdą, że ryzyko utraty prywatności można poddawać kontroli, ale nie można go wyeliminować.

Właściciele danych muszą pogodzić się z tym, że ryzyko utraty prywatności można kontrolować, ale nie można go wyeliminować.

Ta prawda była często ignorowana przez ustawodawców po obu stronach Oceanu Atlantyckiego. Przepisy dotyczące prywatności mają na celu ochronę informacji, które można zidentyfikować, czyli wszystkiego, co umożliwia poznanie szczegółów dotyczących życia konkretnej osoby – a ustawodawcy mają tendencję do pewnej dychotomii: informacje albo są bardzo chronione, albo wcale. Tymczasem możliwość zastosowania DP świadczy o tym, że ochrona prywatności danych nie jest zagadnieniem czarno‑białym.

Doświadczenie wskazuje, że można połączyć konkretną osobę fizyczną z różnymi, teoretycznie anonimowymi śladami w sieci, jakie po sobie pozostawia, o ile tylko dobrze się poszuka. Na przykład badacze z Uniwersytetu w Teksasie zidentyfikowali abonentów Netflixa, łącząc oceny filmów z serwisu IMDB z „anonimową” listą filmów oglądanych i ocenianych przez abonentów, którą opublikował Netflix. Badacze wykazali, że poszczególne wpisy mogą być ponownie zidentyfikowane i powiązane z abonentem. Firma została pozwana na podstawie ustawy Video Privacy Protection Act i w wyniku zbiorowego pozwu wypłaciła odszkodowanie w wysokości 9 milionów dolarów.

Ustawa o ochronie prywatności musi być stosowana do wszystkich informacji, które są jakkolwiek związane z daną osobą, a nie tylko do tych, które umożliwiają jej identyfikację. Pozwala to kontrolować, jak wiele danych jest udostępnianych oraz jak wiele prywatności podlega naruszeniu, na podstawie specyficznych potrzeby organizacji i tego, co uważa ona za swój próg ochrony prywatności.

Trzy różne strategie zastosowania DP

Badacze zajmujący się ochroną prywatności opracowali trzy różne modele korzystania z DP.

  1. Model zaufanego kuratora. Organizacja korzystająca z poufnych danych dodaje szumy do wyników statystycznych, publikowanych dla szerszej grupy odbiorców. Jest to podejście stosowane przez Biuro Spisu Powszechnego do publikowania informacji z ochroną prywatności, takich jak te wykorzystywane przez produkt OnTheMap.

    Model zaufanego kuratora może chronić zarówno dane, które zostały już opublikowane, jak i te, które są wykorzystywane wewnątrz organizacji. W 2018 roku firma Uber stworzyła system DP na potrzeby wewnętrznych badań. Zawierał on informacje o pasażerach oraz kierowcach, dzienniki podróży i dane, które firma gromadzi w celu poprawy doświadczeń klientów. DP umożliwiła analitykom Ubera ocenę wydajności jego systemów bez wglądu w szczegóły dotyczące poszczególnych klientów i ich przejazdów.

  2. Syntetyczne mikrodane chronione przez DP. Jest to dodatkowa metoda,z której mogą korzystać organizacje stosujące model zaufanego kuratora. W takim przypadku organizacja tworzy statystyczny model danych oryginalnych, a następnie stosuje na nim DP w celu utworzenia nowego modelu chronionego pod względem prywatności. Jest on dalej wykorzystany do utworzenia indywidualnych zapisów. Te mikrodane mogą zawierać informacje o wieku, poziomie wykształcenia oraz przychodach danej osoby, które po przeanalizowaniu dają podobne wyniki statystyczne, lecz nie odpowiadają dokładnie danym rzeczywistej osoby.

    Zaletą mikrodanych jest to, że można je rozpowszechniać lub wielokrotnie analizować bez dodatkowej utraty prywatności. Trudno jest jednak stworzyć dokładne rejestry mikrodanych, zawierające więcej niż kilka kolumn, i nie da się ich łatwo połączyć z innymi zbiorami na poziomie rejestru, ponieważ chronione dane nie zawierają identyfikatorów, takich jak nazwiska albo numery ubezpieczenia społecznego.

  3. Model lokalny. Szum statystyczny jest dodawany do każdego wpisu w rejestrze podczas jego tworzenia i przed wysłaniem go do analityków (wewnętrznych albo zewnętrznych). Google stosował taką metodę do opracowywania statystyk dotyczących użytkowników swojej przeglądarki Chrome – w tym informacji o stronach domowych użytkowników, odwiedzanych witrynach i różnych procesach uruchamianych przez ich komputery – jako sposobu na zwiększenie możliwości blokowania złośliwego oprogramowania bez gromadzenia poufnych danych. Jednakże ostatecznie zrezygnowano z tego narzędzia, ponieważ „jest w nim po prostu za dużo szumu” – stwierdził jeden z byłych badaczy Google’a. Zamiast tego firma zdecydowała się na bardziej skomplikowane podejście, łączące anonimowe mieszanie z modelem zaufanego kuratora.

    Ogólnie rzecz biorąc, model zaufanego kuratora sprawdza się dobrze w przypadku organizacji takich jak Biuro Spisu Powszechnego, pracujących z danymi, które już posiadają. Model lokalny natomiast jest atrakcyjny dla organizacji, które dotychczas wstrzymywały się z gromadzeniem danych z obawy o ochronę prywatności.

    Na przykład Apple, chcąc się dowiedzieć, jaki tekst ludzie wpisują, gdy używają emotek (np. wpisują „heart” czy „love”, by pojawił się symbol serca), zastosował model lokalny, by chronić prywatność użytkowników. Dzięki takiej metodzie organizacja może powiedzieć, że stosuje technologię chroniącą prywatność wobec danych, zanim jeszcze zostaną one zebrane.

Czy DP jest wystarczająco dopracowanym narzędziem dla biznesu?

Obecnie technologia DP jest jeszcze młoda i można stosować ją tylko w ograniczonych okolicznościach, głównie w przypadku statystyk liczbowych opartych na poufnych danych, takich jak statystyki geograficzne wykorzystywane w aplikacji OnTheMap. DP nie działa jeszcze zbyt dobrze w przypadku ochrony tekstu, zdjęć, głosu lub materiałów wideo.

Ponieważ stosowanie DP wymaga intensywnej nauki, osoby zainteresowane tą technologią powinny zacząć od małych, dobrze zdefiniowanych projektów pilotażowych. Lokalne przedsiębiorstwo użyteczności publicznej, poproszone o udostępnienie danych o zaległościach płatniczych klientów, może dostarczyć zestaw danych chronionych za pomocą DP, wskazując liczbę osób w każdym bloku, w przypadku których istnieje największe prawdopodobieństwo zaległości, bez identyfikacji poszczególnych gospodarstw domowych. Program pomocy w sytuacjach kryzysowych mógłby wówczas wykorzystać te dane, aby zawęzić zasięg pomocy do bloków o największym ryzyku zalegania z płatnościami, a nie do całego regionu.

DP można również wykorzystać do tworzenia mikrodanych chroniących prywatność, choć to podejście jest ograniczone do danych zawierających niewielką liczbę zmiennych. Na przykład Google zareagował na pandemię COVID‑19, publikując raporty o liczbie osób przemieszczających się codziennie pomiędzy domami, biurami, sklepami, stacjami tranzytowymi oraz innymi miejscami („Community Mobility Reports”). Mikrodane dotyczące poszczególnych lokalizacji w postaci współrzędnych długości i szerokości geograficznej (czyli rejestrów z dwiema wartościami) przekształcono na sześć ogólnych kategorii lokalizacji, a następnie zastosowano metodę DP, by ukryć liczbę osób zawartą w każdej z nich.

Technologia DP jest wciąż stosunkowo nowa i można stosować ją tylko w ograniczonych okolicznościach.

Firmy rozważające wprowadzenie DP powinny zacząć od konsultacji lub zatrudnienia eksperta z zaawansowanymi kwalifikacjami w dziedzinie informatyki bądź podobnymi (LinkedIn zatrudnił ekspertów ds. prywatności ze stopniem doktora do opracowania swoich statystyk zaangażowania odbiorców). Najbardziej wiarygodne informacje na temat tej technologii można znaleźć w wysoce technicznych pracach akademickich, a niektóre oferty pracy odzwierciedlają ten fakt, wymagając od kandydatów opublikowania prac technicznych lub opracowania publicznie dostępnego kodu DP. Próba zastosowania DP teraz, bez wiedzy fachowej, prawdopodobnie będzie prowadzić do błędów.

Mając do dyspozycji eksperta w dziedzinie DP, organizacja jest w stanie lepiej ocenić obecnie dostępne narzędzia, zarówno komercyjne, jak i open source, aby określić, które z nich najlepiej spełnią potrzeby w jej przypadku. Firmy powinny zadać sobie pytania: Czy technologia jest przeznaczona do ochrony danych, które są już dostępne, czy informacji, które są aktualnie zbierane? Jeśli chodzi o istniejące dane: czy ma ona chronić wyniki statystyczne lub mikrodane na poziomie rejestrów? Jakie szkolenia, materiały edukacyjne lub wsparcie zapewnia dostawca?

W najbliższym czasie technologia DP może nadal być zbyt skomplikowana dla większości organizacji. Mogą one jednak już dziś poprawić ochronę prywatności, przyjmując niektóre zasady leżące u jej podstaw, takie jak dodawanie szumu statystycznego do swoich produktów opartych na danych, nawet jeśli brakuje im możliwości dokładnego zmierzenia rzeczywistego kompromisu między ochroną prywatności a dokładnością.

O autorach
Tematy

Może Cię zainteresować

Marki luksusowe pod presją geopolityki

W połowie kwietnia rynki kapitałowe zelektryzowała informacja o tym, że francuski gigant LVMH stracił tytuł najcenniejszej firmy luksusowej na świecie na rzecz mniejszego, ale bardziej ekskluzywnego Hermèsa. Czy detronizacja jednej francuskiej marki przez drugą (producenta torebek Louis Vuitton przez producenta torebek Birkin) to rzeczywiście zdarzenie, którym powinny się ekscytować europejskie rynki? I co ta zmiana oznacza dla polskich producentów marek premium?

 

Dobre relacje w firmie zaczynają się od dobrze dobranych słów

Gdy codzienna komunikacja sprowadza się do skrótów myślowych, domysłów i niejasnych sygnałów, łatwo o spadek zaangażowania, narastające napięcia i chaos informacyjny. Coraz więcej organizacji dostrzega, że to właśnie język – sposób, w jaki mówimy do siebie w pracy – buduje (lub rujnuje) atmosferę oraz relacje w zespołach. O tym, jak świadomie kształtować kulturę organizacyjną poprzez komunikację, opowiada Joanna Tracewicz, Senior Content Strategy Manager w rocketjobs.pl i justjoin.it, a także współautorka poradnika Nie mów do mnie ASAP! O spoko języku w pracy.  Rozmawia Paulina Chmiel-Antoniuk.

AI w medycynie predykcyjnej – jak wearables zmieniają opiekę Jak AI i urządzenia noszone rewolucjonizują medycynę

W ostatnich latach inteligentne urządzenia noszone (wearables) przeszły drogę od prostych krokomierzy do zaawansowanych narzędzi monitorujących stan zdrowia. Dzięki sztucznej inteligencji stają się one nie tylko rejestratorami danych, lecz także systemami predykcyjnymi, które mogą wspierać diagnostykę i profilaktykę chorób. W świecie biznesu i zarządzania zdrowiem pracowników technologia ta może odegrać kluczową rolę.
Według raportu Think Tank SGH wartość globalnego rynku AI w ochronie zdrowia wzrośnie z 32,3 miliarda dolarów w 2024 roku do 208,2 miliarda dolarów w 2030 roku, co oznacza średnioroczny wzrost na poziomie 36,4%. Ta dynamiczna ekspansja wskazuje na rosnące znaczenie technologii AI i wearables jako ważnych elementów nowoczesnej opieki medycznej.

Strategiczna samotność – klucz do autentycznego przywództwa

W dynamicznym współczesnym świecie biznesu, w którym dominują informacje dostarczane w trybie natychmiastowym, umiejętność samodzielnego, logicznego i krytycznego myślenia stała się jedną z najcenniejszych kompetencji liderów. Koncepcja ta, przedstawiona przez Williama Deresiewicza, byłego profesora Uniwersytetu Yale, zakłada, że prawdziwe przywództwo nie rodzi się wśród zgiełku opinii i impulsów zewnętrznych, lecz w przestrzeni samotności i skupienia.

Skup się na fanach marki. Oferta skierowana do wszystkich nie działa!
Multimedia
Skup się na fanach marki. Oferta do wszystkich nie działa!

W spolaryzowanej kulturze pogoń za rynkiem masowym i kierowanie oferty do wszystkich są z góry skazane na porażkę. Najlepszym sposobem na osiągnięcie sukcesu marki jest sprzymierzenie się z subkulturą, która ją pokocha.

Cła, przeceny i okazje: Jak zarobić, gdy inni panikują lub tweetują

Trump tweetuje, Wall Street reaguje nerwowo, a inwestorzy znów sprawdzają, czy gdzieś nie pozostawili Planu B. Gdy rynek wpada w histerię, pojawia się pokusa: a może jednak warto „kupić w tym dołku”? W tym tekście sprawdzamy, czy inwestowanie w kontrze do tłumu to genialna strategia na czasy ceł Trumpa, banów na Chiny i politycznych rollercoasterów — czy raczej przepis na ból głowy i portfela. Nie wystarczy chłodna kalkulacja, przyda się też stalowy żołądek.

• Jak generować wartość z AI dzięki małym transformacjom w biznesie - Webster
Premium
Jak generować wartość z AI dzięki małym transformacjom w biznesie

Liderzy skutecznie wykorzystują duże modele językowe, stopniowo minimalizując ryzyko i tworząc solidne fundamenty pod przyszłe transformacje technologiczne, dzięki czemu generują realną wartość dla swoich organizacji.

Niespełna dwa lata temu generatywna sztuczna inteligencja (GenAI) trafiła na czołówki stron gazet, zachwycając swoimi niezwykłymi możliwościami: mogła prowadzić rozmowy, analizować ogromne ilości tekstu, dźwięku i obrazów, a nawet tworzyć nowe dokumenty i dzieła sztuki. To najszybsze w historii wdrożenie technologii przyciągnęło ponad 100 mln użytkowników w ciągu pierwszych dwóch miesięcy, a firmy z różnych branż rozpoczęły eksperymenty z GenAI. Jednak pomimo dwóch lat intensywnego zainteresowania ze strony kierownictwa i licznych prób wdrożeniowych nie widać wielkoskalowych transformacji biznesowych, które początkowo przewidywano. Co się stało? Czy technologia nie spełniła oczekiwań? Czy eksperci się pomylili, wzywając do gigantycznych zmian? Czy firmy były zbyt ostrożne? Odpowiedź na te pytania brzmi: i tak, i nie. Generatywna sztuczna inteligencja już teraz jest wykorzystywana w wielu firmach, ale nie – jako lokomotywa radykalnej transformacji procesów biznesowych. Liderzy biznesu znajdują sposoby, by czerpać realną wartość z dużych modeli językowych (LLM), nie modyfikując całkowicie istniejących procesów. Dążą do małych zmian (small t) stanowiących fundament pod większe przekształcenia, które dopiero nadejdą. W tym artykule pokażemy, jak robią to dzisiaj i co możesz zrobić, aby tworzyć wartość za pomocą generatywnej sztucznej inteligencji.

Premium
Polski przemysł na rozdrożu

Stoimy przed fundamentalnym wyborem: albo dynamicznie przyspieszymy wdrażanie automatyzacji i robotyzacji, co sprawi, że staniemy się aktywnym uczestnikiem czwartej rewolucji przemysłowej, albo pogodzimy się z perspektywą erozji marż pod wpływem rosnących kosztów operacyjnych i pogłębiającego się strukturalnego niedoboru wykwalifikowanej siły roboczej.

Jak alarmują prognozy Polskiego Instytutu Ekonomicznego, do 2030 r. w samej Europie może zabraknąć nawet 2,1 mln wykwalifikowanych pracowników, co czyni automatyzację nie jedną z możliwości, lecz strategiczną koniecznością. Mimo że globalnie liczba robotów przemysłowych przekroczyła już 4,2 mln jednostek, a w Europie w 2023 r. wdrożono rekordowe 92,4 tys. nowych robotów, Polska wciąż pozostaje w tyle. Nasz wskaźnik gęstości robotyzacji, wynoszący zaledwie 78 robotów na 10 tys. pracowników przemysłowych, znacząco odbiega od europejskiego lidera – Niemiec (397 robotów na 10 tys. pracowników), czy globalnego pioniera – Korei Południowej (tysiąc robotów na 10 tys. pracowników). W Scanway – firmie, która z sukcesem łączy technologie rozwijane dla sektora kosmicznego z potrzebami przemysłu – jesteśmy przekonani, że przyszłość konkurencyjności leży w inteligentnym wykorzystaniu danych, zaawansowanej automatyzacji opartej na AI oraz strategicznej gotowości do wprowadzania zmian technologicznych. Czy jednak zaawansowana wizja maszynowa napędzana przez sztuczną inteligencję może się stać katalizatorem, który pozwoli sprostać wyzwaniom i odblokować uśpiony potencjał innowacyjny polskiej gospodarki?

Premium
Gdy projekt wymyka się spod kontroli

Polskie firmy technologiczne coraz częściej realizują złożone zlecenia dla międzynarodowych gigantów. Jednak nawet najlepiej przygotowany zespół może przy takim projekcie natknąć się na nieoczekiwane przeszkody. Przykład firmy Esysco wdrażającej szyfrowanie poczty e-mail dla jednego z największych niemieckich banków pokazuje, jak szybko może runąć precyzyjnie zaplanowany harmonogram oraz jak radzić sobie z nieprzewidywalnymi wyzwaniami.

Polskie firmy technologiczne coraz częściej zdobywają międzynarodowe kontrakty i realizują projekty, które jeszcze niedawno były zarezerwowane wyłącznie dla międzynarodowych rywali. Dzięki temu zdobywają zagraniczne rynki, osiągając imponujące wyniki eksportu usług IT, który w 2023 r. przekroczył 16 mld dolarów. W ostatniej dekadzie przychody branży wzrosły niemal czterokrotnie, a wartość eksportu – aż 7,5 razy, dzięki czemu polski sektor IT stał się motorem rodzimego eksportu. Kluczowymi kierunkami ekspansji są Stany Zjednoczone, Niemcy i Wielka Brytania, a wśród najsilniejszych obszarów znajdują się fintech, cyberbezpieczeństwo, sztuczna inteligencja, gry oraz rozwój oprogramowania.

Polska wyróżnia się w regionie Europy Środkowo-Wschodniej jako największy eksporter usług IT, przewyższając Czechy czy Węgry, a pod względem jakości specjalistów IT zajmuje trzecie miejsce na świecie. Jednak do pełnego wykorzystania tego potencjału konieczne jest pokonanie barier takich jak ograniczony dostęp do kapitału na ekspansję, rosnące koszty pracy oraz niedostateczne doświadczenie w międzynarodowej sprzedaży i marketingu. To jednak nie wszystko. Przy współpracy z międzynarodowymi gigantami trzeba również pamiętać o nieznanej polskim wdrożeniowcom skali, złożoności i nieprzewidywalności towarzyszącym tak wielkim projektom. Dobrym przykładem może być nasze wdrożenie dla jednego z największych niemieckich banków, z którym podpisaliśmy kontrakt na wprowadzenie systemu zabezpieczeń e-maili dla ponad 300 tys. użytkowników rozsianych po całym świecie. Technologicznie byliśmy gotowi, ale rzeczywistość szybko zweryfikowała nasze plany.

Premium
Praktyczny poradnik kreowania wartości z dużych modeli językowych

Gdy w 2022 r. pojawiły się powszechnie dostępne duże modele językowe (LLM), ich potężna zdolność do generowania tekstu na żądanie zapowiadała rewolucję w produktywności. Jednak mimo że te zaawansowane systemy AI potrafią tworzyć płynny tekst w języku naturalnym i komputerowym, to są one dalekie od doskonałości. Mogą halucynować, wykazywać się logiczną niespójnością oraz produkować treści nieadekwatne lub szkodliwe.

Chociaż technologia ta stała się powszechnie dostępna, wielu menedżerów nadal ma trudności z rozpoznawaniem przypadków użycia LLM-ów, w których poprawa produktywności przewyższa koszty i ryzyka związane z tymi narzędziami. Potrzebne jest bardziej systematyczne podejście do wykorzystywania modeli językowych, tak aby uefektywnić procesy biznesowe, a jednocześnie kontrolować słabe strony LLM-ów. Proponuję trzy kroki ułatwiające osiągnięcie tego celu. Po pierwsze, należy rozłożyć proces na mniejsze zadania. Po drugie, trzeba ocenić, czy każde zadanie spełnia tzw. równanie kosztów GenAI, które szczegółowo wyjaśnię w tym artykule. Jeśli ten warunek zostanie spełniony, należy uruchomić projekt pilotażowy, iteracyjnie oceniać jego wyniki oraz na bieżąco wprowadzać zmiany w celu poprawy rezultatów.

Kluczowe w tym podejściu jest pełne zrozumienie, w jaki sposób mocne i słabe strony modeli językowych odpowiadają specyfice danego zadania; jakie techniki umożliwiają ich skuteczną adaptację w celu zwiększenia wydajności; oraz jak te czynniki wpływają na bilans kosztów i korzyści – a także na ocenę ryzyka i potencjalnych zysków – związanych z wykorzystaniem modeli językowych do podnoszenia efektywności realizowanych działań.

Materiał dostępny tylko dla subskrybentów

Jeszcze nie masz subskrypcji? Dołącz do grona subskrybentów i korzystaj bez ograniczeń!

Subskrybuj

Newsletter

Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!