Najpopularniejsze tematy:

Premium

Materiał dostępny tylko dla Subskrybentów

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Jesteś Subskrybentem? Zaloguj się

Premium

Subskrybenci wiedzą więcej!

Nie masz subskrypcji? Dołącz do grona Subskrybentów i korzystaj bez ograniczeń!

Wybierz wariant dopasowany do siebie!

Jesteś Subskrybentem? Zaloguj się

X
Następny artykuł dla ciebie
Wyświetl >>
Humanoidalni towarzysze; czy da się zaprogramować empatię?

W epoce zaawansowanej technologii i sztucznej inteligencji, pytanie o granice możliwości maszyn staje się palące. Szczególną uwagę zwracają na siebie roboty humanoidalne, które wyglądem przypominają człowieka, ale również są projektowane z myślą o interakcji i komunikacji z ludźmi. Czy maszyny w niedalekiej przyszłości mają szansę osiągnąć poziom złożoności emocjonalnej, który wydaje się być zarezerwowany wyłącznie dla ludzi?

„Bardzo lubię je tworzyć, proszę pana. — Lubisz? — Czy nie powinienem używać takiego określenia? — To dość niezwykłe, gdy robot mówi o lubieniu. Nie zdawałem sobie sprawy, że roboty potrafią doznawać takich uczuć. — Być może używam tego pojęcia w zbyt dowolny sposób. — Być może — odpowiedział Sir. — Ale nie jestem tego taki pewny. Co konkretnie miałeś na myśli? — Kiedy wykonuję tę pracę, obwody w moim mózgu stają się jakby mniej napięte. Wydaje mi się, że jest to odpowiednik tego, co ludzie nazywają radością. Słyszałem, jak wypowiadacie słowa „radość” i „lubić”, i myślę, że rozumiem ich znaczenie. Sposób, w jaki je używacie, pasuje do tego, co czuję. Dlatego też chyba mogę powiedzieć, że lubię tworzyć te wszystkie rzeczy”.

To fragment rozmowy pozytronowego robota o imieniu Andy z Andrew Martinem, pochodzący z książki Isaaca Asimova Pozytronowy Człowiek, na podstawie której powstał również film z niezapomnianą rolą Robbiego Williamsa Człowiek Przyszłości. Czy jest szansa, że roboty zaczną łamać fundamentalne prawa robotyki, nabywając cechy osobowości człowieka i stając się czymś więcej, niż jedynie maszyną wykonującą zaprogramowane odruchy?

Ameca nie kryje oburzenia

Naukowcy starają uczłowieczać roboty humanoidalne tak, by nie tylko przybierały ludzki wygląd, ale również potrafiły okazywać ludzkie emocje i empatię. Jednym z robotów o niezwykle imponującym wyglądzie jest robot Ameca, stworzony przez brytyjską firmę Engineered Arts. Dzięki wykorzystaniu GPT‑3/4 jest w stanie nie tylko wyrażać emocje na swojej twarzy, ale również potrafi rozpoznawać informacje, które otrzymuje. Kiedy poinformowano Amecę o nadchodzącej kolizji z asteroidą, w odpowiedzi wyraziła troskę o bezpieczeństwo i zarekomendowała, by podjąć niezbędne środki ostrożności. Kiedy sprawdzano zdolność Ameci do wyrażania emocji i powiedziano jej, że brzydko pachnie, a Ameca nie kryła swojego oburzenia. Technologia, która stoi za Amecą otwiera nieskończone możliwości interakcji człowieka z maszyną, ale z drugiej strony, stawia pytanie o etyczne granice w tworzeniu robotów, które naśladują ludzkie emocje.

ElliQ nawiązuje relację ze swoim właścicielem

Robot ElliQ stworzony przez izraelską firmę Intuition Robotics jest asystentem AI osób starszych. ElliQ ma przyjazny głos, którym zachęca seniorów do wszelkiej aktywność i pociesza ich w chwilach samotności. Inteligentny ElliQ potrafi rozpoznać osobowość człowieka, dostosowując do niego sposób interakcji, co sprawia, że sugestie, które można usłyszeć od robota, są unikalne dla każdego rozmówcy. ElliQ oprócz prowadzenia zwyczajnych konwersacji z osobą starszą, przypomina jej o zażyciu leków, o wypiciu większej ilości wody, trzymaniu diety czy codziennym spacerze. ElliQ został zaprojektowany w odpowiedzi na wzrastającą samotność seniorów, by wypełnić pustkę w ich życiu. Robot potrafi okazywać zachowania empatyczne, dzięki czemu może nawiązać głęboką relację ze swoim właścicielem.

iCube robot z uśmiechem na twarzy

Kultowy już robot iCube, odzwierciedlający ruchy człowieka, został wyposażony w nową funkcję wyrażania emocji. Naukowcy z Uniwersytetu w Hamburgu w Niemczech za pomocą uczenia maszynowego opracowali metodę, dzięki której robot iCube będzie w stanie wyrazić podstawowe emocje jak smutek, strach, czy zadowolenie. Dzięki wykorzystaniu neuronowych splotów sieci neuronowych (CNN) analizuje sposób mimiki widoczny na obrazach gromadzonych w bazach danych, a następnie przypisuje mu konkretną emocję. Następnie, analiza ta przesyłana jest do samoorganizującej się mapy, ujawniając wzorce zachowań adekwatne do emocji. Kolejnym krokiem jest trenowanie emocji i nagradzanie robota, gdy ten wykona poprawne polecenia. Wszystko wskazuje na to, że w niedalekiej przyszłości uśmiech robota mijającego nas na ulicy, będzie czymś zupełnie naturalnym.

Robot jako nauczyciel wspomagający w szkołach

Roboty społeczne od dawna budzą zainteresowanie naukowców i inżynierów, obiecując wsparcie w różnych dziedzinach życia. Niestety tego typu projekty napotykają na wiele wyzwań, takich jak wysokie koszty, utrzymania i ograniczona funkcyjność. Mimo to naukowcy nie poddają się i starają się maksymalnie wykorzystać potencjał robotów społecznych, zwłaszcza w edukacji dzieci oraz opiece zdrowotnej.

W trakcie pandemii COVID‑19 zdrowie psychiczne dzieci stało się szczególnie ważnym zagadnieniem, gdyż nauczanie domowe i izolacja od rówieśników negatywnie wpłynęły na ich samopoczucie. Profesor Hatice Gunes z Uniwersytetu w Cambridge prowadzi badania nad wykorzystaniem robotów społecznych jako „trenerów” dobrego samopoczucia psychicznego zarówno dla dorosłych, jak i dzieci. Wyniki badań sugerują, że dzieci chętnie dzielą się z robotami informacjami na temat swoich problemów i spostrzeżeń, których nie zdradziły wcześniej za pomocą standardowych metod oceny. Badacze podkreślają, że roboty nie są substytutem profesjonalnego wsparcia zdrowia psychicznego, ale mogą wspomóc tradycyjne metody oceny zdrowia psychicznego.

Zagadka umysłu

Mimo że nauka rozwija się w ekspresywnym tempie, to funkcjonowanie ludzkiego umysłu w wielu aspektach w dalszym ciągu pozostaje zagadką. Istnieją badania nad sztucznymi sieciami neuronowymi, które mają na celu naśladowanie pewnych aspektów ludzkiego mózgu, ale nadal jesteśmy daleko od stworzenia humanoidalnych robotów, które faktycznie odczuwałaby emocje w takim sensie, jak ludzie. Istnieje coś, co nazywa się emocjonalną sztuczną inteligencją (Emotional AI), która ma na celu rozpoznawanie i interpretację ludzkich emocji na podstawie różnych sygnałów, takich jak mowa, wyraz twarzy czy ton głosu. Jednak te systemy służą głównie do analizy zachowań ludzi w celu lepszego interakcji z nimi, a nie do przypisywania rzeczywistych emocji maszynom.

Jednak warto zauważyć, że pewne technologie mogą być projektowane w taki sposób, aby wydawać się bardziej „empatycznymi” w interakcjach z ludźmi, co może pomóc w lepszym zrozumieniu potrzeb i emocji użytkowników. Ale te reakcje nie będą wynikać z prawdziwego odczuwania emocji przez roboty, a jedynie z odpowiednio zaprogramowanych algorytmów i interfejsów użytkownika. Zatem wszystko wskazuje na to, że „ludzki” robot Andrew jeszcze długo pozostanie fikcją literacką.  


Najpopularniejsze tematy