Najpopularniejsze tematy:

Premium

Materiał dostępny tylko dla Subskrybentów

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Jesteś Subskrybentem? Zaloguj się

Premium

Subskrybenci wiedzą więcej!

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Wybierz wariant dopasowany do siebie!

Jesteś Subskrybentem? Zaloguj się

X
Następny artykuł dla ciebie
Wyświetl >>
Sztuczna inteligencja potrzebuje człowieka u steru

Sztuczna inteligencja obiecuje, że wykonywanie zadań będzie łatwiejsze, praca – bardziej produktywna, a firmy – bardziej wydajne. Najnowsze badania przeprowadzone przez Slack wykazały, że 80% pracowników korzystających z generatywnych narzędzi AI doświadcza wzrostu produktywności – a to dopiero początek! Asystenci AI, tacy jak Salesforce Einstein Copilot, potrafią już odpowiadać na pytania, generować treści i dynamicznie automatyzować działania. Pewnego dnia asystenci AI staną się cyfrowymi agentami sprzedaży i usług. Będą przewidywać nasze potrzeby oraz działać w naszym imieniu.

TO WSZYSTKO BRZMI ŚWIETLANIE, jednak wraz z każdym postępem w dziedzinie sztucznej inteligencji pojawiają się nowe obawy natury etycznej. A co, jeśli asystent AI źle zarekomenduje produkt? A co, jeśli podejmie błędne działania w istotnych sprawach, takich jak finanse osobiste lub informacje medyczne? Wówczas stawka staje się bardzo wysoka. Pojawia się zatem niezwykle istotne pytanie: w jaki sposób możemy wykorzystać moc AI bez narażania się na ryzyko?

Człowiek u steru

Należy podkreślić, że AI sama w sobie ciągle ewoluuje. Każdego dnia wykonujemy krok naprzód, ale nie zawsze jesteśmy w stanie wyjaśnić, dlaczego sztuczna inteligencja robi to, co robi. Nie jesteśmy także w stanie wyeliminować każdej niedokładności, toksyczności lub dezinformacji. Dlatego, zdaniem Salesforce, sztuczna inteligencja zawsze powinna być nadzorowana i to ludzie muszą mieć pełną kontrolę nad systemami AI. Jednak w miarę jak sztuczna inteligencja staje się coraz bardziej wyrafinowana, może być coraz trudniej nadać jej ludzki charakter. Niewykonalne jest to, żebyśmy angażowali się w każdą interakcję ze sztuczną inteligencją nowej generacji lub przeglądali każdy wynik przez nią wygenerowany.

Dlatego właśnie sztuczna inteligencja potrzebuje człowieka u steru. Zamiast prosić ludzi o interwencję przy każdej indywidualnej interakcji człowieka z AI, projektujemy bardziej wydajne, ogólnosystemowe mechanizmy kontroli, które stawiają ludzi na czele wyników generowanych przez sztuczną inteligencję. Innymi słowy, ludzie nie zawsze wiosłują łodzią – ale w dużej mierze nią sterują i kontrolują, dokąd płynie.

Z człowiekiem u steru możemy projektować systemy AI, które wykorzystują to, co najlepsze w ludzkiej i sztucznej inteligencji. Na przykład możemy odblokować niesamowitą wydajność, zlecając AI przeglądanie oraz podsumowywanie milionów profilów klientów i jednocześnie budować zaufanie, umożliwiając ludziom pochylenie się nad wynikami i wykorzystanie ich w sposób, w jaki sztuczna inteligencja nie potrafi.

Sztuczna inteligencja jako drugi pilot, a nie autopilot

Nie bez powodu produkty AI tej generacji nazywane są copilotami, a nie autopilotami. W miarę jak sztuczna inteligencja staje się coraz potężniejsza i bardziej autonomiczna – podejmuje decyzje czy działania w imieniu jednostek – utrzymanie człowieka za sterami staje się jeszcze ważniejsze. Łącząc możliwości sztucznej inteligencji z siłą ludzkiego osądu, możemy sprawić, że AI będzie bardziej skuteczna i godna zaufania.

Przykłady na to, jak człowiek steruje AI:

Salesforce Prompt Builder: niezwykle istotne są pytania lub instrukcje, które kierujemy do generatywnych modeli AI. Pojedynczy wygenerowany przez człowieka monit może pomóc w uzyskaniu dokładnych wyników – ale tylko wtedy, gdy jest starannie skonstruowany. Dzięki narzędziu Prompt Builder pomagamy klientom tworzyć skuteczne instrukcje. Widzimy prawdopodobne wyniki w czasie zbliżonym do rzeczywistego. W ten sposób pomagamy uzyskać pożądany wynik. Różne tryby edycji w Prompt Builder pozwalają użytkownikom dostosowywać i poprawiać pytania tak, aby zapewniały bardziej pomocne, dokładne i trafne wyniki.

Ścieżki audytu pomagają wykryć to, co przeoczyliśmy: warstwa zaufania Einstein oferuje mocną ścieżkę audytu, która pomaga klientom ocenić historię pracy AI i wskazać, gdzie mógł zostać popełniony błąd – ale także gdzie sztuczna inteligencja dobrze sobie poradziła. Funkcje te ułatwiają zidentyfikowanie w dużych zbiorach danych problemów, które mogłyby nie zostać wyłapane przez człowieka. Dzięki temu można wykorzystać ludzki osąd do wprowadzenia poprawek na podstawie potrzeb organizacji. Na przykład Audit Trail może ostrzegać, gdy wyniki narzędzia AI są oznaczone jako „kciuk w dół” określoną liczbę razy – to sygnał, że wyniki generowane przez AI mogą nie spełniać oczekiwań biznesowych. Poprzez łączenie ukrytych sygnałów zwrotnych, takich jak częstotliwość edytowania danych wyjściowych przez użytkowników przed ich użyciem, Audit Trail może dać pełen wgląd w systemy i pozwolić zidentyfikować trendy oraz podjąć stosowne działania.

Pionierskie podejście do ery sztucznej inteligencji

W miarę rozwoju ery sztucznej inteligencji niezwykle ważne jest to, żeby ludzie i technologia ewoluowali razem. Rewolucja AI to nie tylko innowacje technologiczne. To także umożliwienie ludziom skutecznego zasiadania za sterami AI i wykorzystywania jej możliwości w sposób godny zaufania i skuteczny.

Dzięki umieszczeniu człowieka u steru możemy połączyć to, co najlepsze w ludzkiej i sztucznej inteligencji. Opierając się na możliwościach sztucznej inteligencji, można uwolnić potencjał ludzi do tego, w czym są najlepsi: kreatywności, dokonywania osądów i głębszego łączenia danych ze sobą. Dzięki współpracy AI i ludzi możemy stworzyć bardziej produktywne firmy, wzmacniać pracowników, a ostatecznie budować godną zaufania sztuczną inteligencję.


Najpopularniejsze tematy