Powstają nowe, wydajne techniki wykorzystujące sztuczną inteligencję (AI), dzięki którym nie potrzeba już ogromnych zbiorów danych oznaczonych etykietami do uczenia systemów opartych na sieciach neuronowych.
Istnieje popularny pogląd, że pełne wykorzystanie potencjału modeli sztucznej inteligencji wymaga dużych ilości oznaczonych danych treningowych. Firmy internetowe z sektora B2C, z których wyrosło wiele obecnie funkcjonujących modeli AI, nigdy nie miały z ich uzyskaniem większych problemów. Jednak dla przedsiębiorstw z innych sektorów – przemysłowego, produkcyjnego, ochrony zdrowia i edukacyjnego – opracowanie wystarczająco dużych zbiorów danych oznaczonych etykietami (labelled data) może okazać się znacznie większym wyzwaniem.
Ale są również dobre wieści. Na przestrzeni ostatnich kilku lat praktycy oraz naukowcy zajmujący się sztuczną inteligencją stworzyli kilka technik pozwalających na budowanie dokładnych modeli AI przy znacznie niższym wolumenie danych oznaczonych. Stosując te metody, niejednokrotnie udaje się zbudować dobry model przy wykorzystaniu zaledwie ułamka wcześniej wymaganych danych.
Zgromadzenie dużej ilości danych oznaczonych jest trudne i kosztowne. Wyobraź sobie, że jesteś szefem firmy produkującej meble do domowego biura. Klienci zamieszczają recenzje waszych produktów w różnych sklepach internetowych oraz w mediach społecznościowych, a niektóre z tych opinii mogą być dla was cennym źródłem informacji o ewentualnych wadach i możliwych udoskonaleniach w oferowanych meblach.
Ponieważ twoja firma szybko się rozwija, zwiększa się także ilość treści przekazywanych w recenzjach i nie sposób już ręcznie przejrzeć ich wszystkich w poszukiwaniu potencjału na udoskonalenie produktów. Postanawiasz, że trzeba zbudować model AI, który będzie w stanie „przeczytać” każdą opinię konsumenta i ocenić, czy zawiera ona informacje o wadzie, potencjalnych udoskonaleniach albo o żadnym z powyższych. Mając taki model, możesz przekierowywać poszczególne recenzje..