Streszczenie: Systemy oparte na sztucznej inteligencji, w tym duże modele językowe, coraz częściej zastępują ludzi w podejmowaniu decyzji dotyczących przyznawania kredytów, zatrudnienia czy przyjęć na studia. W związku z tym kluczowe staje się zapewnienie, że działają one zgodnie z przeznaczeniem i nie wyrządzają niezamierzonych szkód. Nawet organizacje bez zaawansowanego zaplecza technicznego mogą skorzystać z prostych testów, które pomogą ocenić skuteczność i bezpieczeństwo ich narzędzi AI.
Skąd możemy mieć pewność, że systemy algorytmiczne działają zgodnie z przeznaczeniem? Zestaw prostych testów może wspierać nawet nietechniczne organizacje w ocenie skuteczności działania ich narzędzi AI.
Sztuczna inteligencja, duże modele językowe (large language models; LLM) i inne algorytmy coraz częściej przejmują zadania tradycyjnie wykonywane przez ludzi. Decydują o tym, kto powinien dostać kredyt, pracę lub zostać przyjęty na studia, pomagają przy sporządzaniu raportów rocznych czy notatek dotyczących hospitalizacji.
Skąd jednak możemy mieć pewność, że te systemy działają zgodnie z oczekiwaniami, a komu mogą przez przypadek zaszkodzić?
Materiał dostępny tylko dla subskrybentów
Dołącz do subskrybentów MIT Sloan Management Review Polska Premium!
Kup subskrypcję
