Najpopularniejsze tematy:

Premium

Materiał dostępny tylko dla Subskrybentów

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Wybierz wariant dopasowany do siebie!

Jesteś Subskrybentem? Zaloguj się

Premium

Subskrybenci wiedzą więcej!

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Wybierz wariant dopasowany do siebie!

Jesteś Subskrybentem? Zaloguj się

X
Następny artykuł dla ciebie
Wyświetl >>
O co menedżerowie powinni pytać w obszarze modeli AI i zbiorów danych?

Liderzy organizacji muszą umieć dokonywać trafnych wyborów dotyczących skali wdrażania modeli sztucznej inteligencji. Warto przy tym zadać kilka niełatwych pytań.

Potęga sztucznej inteligencji (artificial intelligence, AI) i bazujących na niej modeli uczenia maszynowego (machine learning, ML) nieustannie zmienia reguły gry w biznesie. Jednak zbyt wiele projektów AI spala na panewce – niejednokrotnie już po wdrożeniu, co jest szczególnie kosztowne i deprymujące. Proszę tylko zapytać firmę Amazon o jej wpadki z technologią rozpoznawania twarzy albo Microsoft o poczynania czatbota Tay. Nader często analitycy i specjaliści od danych uznają te niepowodzenia za jednorazowe, odrębne anomalie, nie starając się nawet znaleźć żadnych prawidłowości, które pomogłyby zapobiegać takim problemom w przyszłości. Menedżerowie, zwłaszcza ci wyższego szczebla, mają dziś możliwość – a także odpowiedzialność – zapobiegania powdrożeniowym porażkom rozwiązań AI. Ale by móc to zrobić, muszą lepiej zgłębić tematykę zbiorów i modeli danych, bo dzięki temu będą w stanie zadawać właściwe pytania twórcom modeli, czyli deweloperom, a następnie prawidłowo oceniać uzyskane odpowiedzi.

Być może w tej chwili właśnie myślisz: „Ale czy analitycy dużych zbiorów danych nie mają doskonałego wykształcenia i przygotowania?”. Dzisiaj większość kursów i programów nauczania dla takich analityków, tzw. naukowców danych (data scientists), koncentruje się na mechanice procesów uczenia maszynowego, a nie na ograniczeniach tej technologii. Przez to naukowcy danych nie są uczeni, jak zapobiegać wpadkom sztucznej inteligencji ani jak diagnozować problemy. Twórcy modeli AI muszą przewidzieć skuteczność danego modelu w przyszłości i jego działanie na zbiorach danych innych niż treningowe, co określane jest mianem generalizowalności (generalizability). Obecnie ta koncepcja jest słabo zdefiniowana i mało rygorystyczna.

Istnieje pewne powiedzenie w dziedzinie analityki, mówiące o tym, że deweloperów AI i artystów cechuje ten sam zły nawyk zakochiwania się we własnych modelach. Tymczasem dane są lekceważone. Przykładowo, twórcy modeli sztucznej inteligencji bardzo łatwo godzą się na zastosowanie zbiorów danych, które akurat są pod ręką, zamiast szukać danych bardziej adekwatnych do problemu, jaki dany algorytm ma rozwiązać.

Menedżerowie wyższego szczebla bez formalnego wykształcenia w dyscyplinach technicznych mają jeszcze mniej kompetencji i narzędzi, by wychwycić problemy drzemiące w modelach sztucznej inteligencji i zbiorach danych, którymi są one zasilane. Ale właśnie oni jako liderzy decydują o tym, na ile szeroko organizacja wdroży te modele. Nasz artykuł powstał z myślą o menedżerach i menedżerkach chcących podejmować trafniejsze decyzje w tym obszarze.

Zostało 81% artykułu.

Materiał dostępny tylko dla subskrybentów

Dołącz do subskrybentów MIT Sloan Management Review Polska Premium!

Jesteś subskrybentem? Zaloguj się »

Thomas C. Redman

Prezes firmy konsultingowej Data Quality Solutions z siedzibą w New Jersey i współautor książki The Real Work of Data Science: Turning Data Into Information, Better Decisions, and Stronger Organizations.

Roger Hoerl

Wykładowca statystyki w Union College w Schenectady w stanie Nowy Jork. Wcześniej kierował laboratorium statystyki stosowanej w GE Global Research.

Polecane artykuły


Najpopularniejsze tematy