O tym, jak uczenie maszynowe pomaga platformie do krótkoterminowego wynajmu wykrywać podejrzane rezerwacje, chroniąc gospodarzy oraz gości przed oszustami, opowiada Naba Banerjee z Airbnb w rozmowie z autorami podcastu Me, Myself, and AI, Shervinem Khodabandehem i Samem Ransbothamem. Przedstawiamy zredagowany zapis tej rozmowy.
Wydaje mi się, że większość słuchaczy zna Airbnb, ale opowiedz nam krótko o firmie i jej działalności.
Airbnb to miejsce, gdzie można budować sieć kontaktów, relacje i czuć się częścią większej społeczności. Miliony właścicieli nieruchomości, czyli gospodarzy, otwierają drzwi swoich domów, zapraszając do nich zupełnie obcych ludzi, dzięki czemu ty, ja i nasze rodziny możemy podróżować po egzotycznych miejscach, a zamiast za‑trzymywać się w hotelach, mamy możliwość prawdziwego zanurzenia się w lokalnej kulturze. Czasami, gdy ma się naprawdę dużo szczęścia, trafia się do domu, w którym mieszkają gospodarze i oferują prawdziwą gościnę, a to daje niezwykłe poczucie wspólnoty. W dzisiejszym świecie, gdzie jest coraz więcej izolacji i coraz mniej głębokich relacji, czerpię ogromną radość z tego, że pracuję w firmie, która sprzyja umacnianiu więzi między ludźmi. A mój zespół, odpowiedzialny za zaufanie i bezpieczeństwo na platformie Airbnb, zajmuje się całą ścieżką klienta, od momentu zakładania konta w Airbnb. Czasami zdarza się, że coś pójdzie nie tak, bo np. ktoś może założyć fałszywe konto albo przejąć kontrolę nad cudzym. Mieszkanie albo dom, który znalazłeś, mogą być „fałszywe”; opinie innych gości, które czytasz, nie zawsze są autentyczne. Nasza praca polega na tym, żebyś ty mógł cieszyć się fantastycznymi wakacjami, a gospodarz mógł skupić się na jak najlepszym podjęciu gości. Więc próbujemy przewidzieć niektóre z tych zagrożeń i im przeciwdziałać, a także minimalizować ryzyko ich wystąpienia w przyszłości. Mój zespół wykorzystuje technologię oraz dane po to, by dodać odrobinę magii do ścieżki użytkownika.