Strona główna > Autorzy > annekleppe
dyrektor zarządzający i partner w Boston Consulting Group, gdzie pełni funkcję globalnego lidera ds. odpowiedzialnej AI
Czy twórcy generatywnych modeli AI mogą ponosić odpowiedzialność za sposób, w jaki rozwijają swoje produkty? Jeśli tak, to w jaki sposób – zastanawiają się eksperci.
Już czwarty rok z rzędu MIT Sloan Management Review oraz Boston Consulting Group (BCG) zorganizowały międzynarodowy panel ekspertów w dziedzinie AI. W jego skład weszli naukowcy i praktycy, celem zrozumienia, jak w jak w organizacjach na całym świecie wdrażana jest odpowiedzialna sztuczna inteligencja (Responsible AI, RAI). W ubiegłym roku eksperci wypowiadali się w szerokim zakresie tematów m.in. odnośnie: zdolności organizacji do zarządzania ryzykiem związanym z AI, przygotowania na europejskie rozporządzenie o sztucznej inteligencji, znaczenia przejrzystości w zakresie ujawniania informacji o algorytmach, a także wyzwań związanych z globalnym chaosem regulacyjnym w obszarze zarządzania AI.
Tegoroczna dyskusja zaczyna się od kwestii odpowiedzialności producentów modeli sztucznej inteligencji ogólnego przeznaczenia (ang. general-purpose AI, GPAI). Nazywany również modelem podstawowym, GPAI odnosi się do modelu lub systemu sztucznej inteligencji zdolnego do wykonywania szerokiego zakresu zadań poznawczych, który można łatwo zintegrować z różnymi systemami lub aplikacjami niższego rzędu. Przykładem są generatywne modele AI, które – po odpowiednim „dostrojeniu” – mogą wspierać różne zastosowania, takie jak zapewnienie obsługi klienta za pośrednictwem chatbota.
Otrzymuj najważniejsze artykuły biznesowe — zapisz się do newslettera!