Najpopularniejsze tematy:

Premium

Materiał dostępny tylko dla Subskrybentów

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Wybierz wariant dopasowany do siebie!

Jesteś Subskrybentem? Zaloguj się

Premium

Subskrybenci wiedzą więcej!

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Wybierz wariant dopasowany do siebie!

Jesteś Subskrybentem? Zaloguj się

X
Następny artykuł dla ciebie
Wyświetl >>
Zbadaj ryzyko związane z algorytmami

Skąd możemy mieć pewność, że systemy algorytmiczne działają zgodnie z przeznaczeniem? Zestaw prostych testów może wspierać nawet nietechniczne organizacje w ocenie skuteczności działania ich narzędzi AI.

Sztuczna inteligencja, duże modele językowe (large language models; LLM) i inne algorytmy coraz częściej przejmują zadania tradycyjnie wykonywane przez ludzi. Decydują o tym, kto powinien dostać kredyt, pracę lub zostać przyjęty na studia, pomagają przy sporządzaniu raportów rocznych czy notatek dotyczących hospitalizacji.

Skąd jednak możemy mieć pewność, że te systemy działają zgodnie z oczekiwaniami, a komu mogą przez przypadek zaszkodzić?

Zostało 96% artykułu.

Materiał dostępny tylko dla subskrybentów

Dołącz do subskrybentów MIT Sloan Management Review Polska Premium!

Jesteś subskrybentem? Zaloguj się »

DR SAM TYNER-MONROE

dyrektor zarządzający ds. odpowiedzialnej AI w DLA Piper

JAKE APPEL

główny strateg w ORCAA

CATHY O’NEIL

dyrektor generalna O’Neil Risk Consulting & Algorithmic Auditing (ORCAA) i autorka książki Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy (Crown, 2016)

Polecane artykuły


Najpopularniejsze tematy