Przejdź do treści

NNO. Po stronie odpowiedzialności.

Komentujemy świat. Chcemy go zmieniać na lepszy.

Poznaj nas
Niuanse uczuć zamienione na zera i jedynki Niuanse uczuć zamienione na zera i jedynki Ilustracja: Dorota Piechocińska
Innowacje

Niuanse uczuć zamienione na zera i jedynki


24 marca, 2021

Czy można sobie wyobrazić ambicję i zazdrość w sztucznej inteligencji?

Kilka lat temu oglądałam reklamę firmy IBM promującą rozwiązanie z użyciem sztucznej inteligencji IBM Watson. Reklama pod nazwą „Radzenie sobie z ludźmi – grupa wsparcia dla botów” przedstawiała sesję terapii grupowej dla robotów. Ten krótki, niespełna dwuminutowy filmik to idealny wstęp do zastanowienia się nad etapem rozwoju sztucznej inteligencji w dziedzinie emocjonalnej. Czy sztuczna inteligencja odczuwa emocje? Czy ich w ogóle potrzebuje?

Emocje to reakcje ludzkiego ciała i umysłu na subiektywnie istotny impuls. Uczucia są źródłem informacji o tym, co jest dla nas ważne, korzystne, bezpieczne lub wręcz przeciwnie. Motywują nas do działania i są fundamentem w procesie budowania i utrzymywania relacji między ludźmi. Emocje czujemy nie tylko w głowie, ale też w ciele, poprzez ich fizyczne objawy. Wpływają na poznanie, percepcję, komunikację i są cichymi doradcami w procesach podejmowania decyzji. 

Inteligencja społeczna i emocjonalna przychodzi ludziom niemal automatycznie; na bodźce reagujemy instynktownie. Mimo że niektórzy z nas są bardziej spostrzegawczy niż inni, w większości możemy z łatwością interpretować emocje i uczucia otaczających nas osób. Podstawowy poziom inteligencji, z którym częściowo przychodzimy na świat, a później uczymy się w procesie wychowania i dorastania, mówi nam, jak zachowywać się w określonych sytuacjach. 

Sztuczna inteligencja to rozwiązania informatyczne, podobnie jak komputery, oprogramowanie tworzone przez naukowców, inżynierów, informatyków. Sztuczna inteligencja to zdolność do wykazywania ludzkich umiejętności, takich jak rozumowanie, uczenie się, planowanie i tworzenie przez maszyny (komputery, roboty, oprogramowanie). To rozwiązania cyfrowe, które rozumieją język naturalny człowieka, wyciągają wnioski, stawiają hipotezy, aby je udowodnić lub obalić. Sztuczna inteligencja uczy się, jest w stanie dostosować swoje działanie, analizując posiadane informacje. 

Czy zatem można nauczyć maszynę rozumienia emocji? I dlaczego to może być ważne?

Jako inżynier, informatyk, większość życia zawodowego (i nie tylko) spędzam, komunikując się z  wytworami techniki cyfrowej. Ale rok 2020 był rokiem szczególnym przede wszystkim w relacjach międzyludzkich. Wiele osób pracowało zdalnie ze swoich domów. Ja również spędzałam od marca 2020 r. wiele godzin dziennie na wirtualnych spotkaniach, które odbywają się za pośrednictwem platform do wideokonferencji, takich jak Zoom, Google Meet czy Microsoft Teams. Wiosenny lockdown był dla mnie takim momentem, kiedy nawet z najbliższymi czas spędzałam, komunikując się przez ekran komputera. Zdałam sobie wtedy sprawę, że spędzam więcej czasu na interakcji z wytworami techniki niż z jakimkolwiek innym człowiekiem. Komunikacja z bliskimi wypełniła się  emotikonami. Jednocześnie dużo trudniej było mi zrozumieć emocje i stan ducha osób, z którymi rozmawiałam, szczególnie kiedy kamerki przestawały działać. Wszelkie niuanse uczuć ginęły w cyberprzestrzeni, zamienione na zera i jedynki.

I od tego czasu częściej zastanawiam się nad emocjami w kontekście techniki cyfrowej. My już nie tylko korzystamy z jej osiągnięć tak jak z noża czy widelca. My wchodzimy w relacje z rozwiązaniami technicznymi, które nas otaczają. Rozmawiamy z telefonem, wydając mu polecenia niczym osobistemu sekretarzowi. Pozwalamy algorytmom sztucznej inteligencji otaczającym nas w internecie, w aplikacjach, z których korzystamy – od map cyfrowych, skrzynek pocztowych po platformy społecznościowe – uczyć się. Uczyć się naszych zwyczajów, preferencji, gustów. Nasz związek z techniką cyfrową staje się coraz bardziej osobisty. A sztuczna inteligencja musi być w stanie wchodzić z ludźmi w interakcje w naturalny sposób, tak jak robią to inni ludzie. AI potrzebuje rozwijać nie tylko umiejętności poznawcze, ale też inteligencję emocjonalną. 

Zdolność rozpoznawania emocji jest dla techniki cyfrowej kluczową umiejętnością w budowaniu spersonalizowanych rozwiązań w każdej branży, od handlu po opiekę zdrowotną i automatykę przemysłową.

Sztuczną inteligencję możemy nauczyć tego, czym są emocje i jak one mogą wpływać na człowieka. Taka wiedza kontekstowa to pierwszy krok. Kolejnym jest interpretacja tych emocji. 

I tu, podobnie jak ludzie, maszyny będą uczyć się tej interpretacji cyfrowymi odpowiednikami zmysłów. 

Algorytmy rozpoznawania mowy oraz przetwarzania języka naturalnego będą próbowały identyfikować emocje w komunikacji słownej: wypowiedzianej oraz pisanej. W przypadku głosu maszyny muszą nauczyć się interpretować nie tylko słowa, zdania i ich sens, ale też to, jaki ładunek emocji ma ton głosu czy tempo wypowiedzi.

Według statystyk tylko 7 proc. ludzi komunikuje swoje emocje za pomocą słów. To oznacza, że przed rozwiązaniami technicznymi stoi więcej wyzwań niż odróżnienie krzyku radości od krzyku bólu.

Rozpoznawanie obrazu, rozpoznawanie twarzy i inne algorytmy wizualne mogą dać jeszcze większy wgląd w emocje danej osoby. 

Połączenie percepcji wielu zmysłów naraz pozwala na opracowywanie metod, które mogą rozumieć ludzkie emocje w sposób podobny do innych ludzi. Odbywa się to w oparciu o interpretacje wyrazu twarzy, głosu, gestów, zebraniu informacji płynących z ciała ludzkiego takich jak tętno, temperatura ciała. Interpretacja emocji to przyszłość rynku inteligentnych urządzeń. Już teraz niektóre z aut informują nas, że jesteśmy zbyt zmęczeni, by kierować. Być może niedługo usłyszymy za kierownicą, że jesteśmy zbyt wzburzeni lub zbyt radośni?

Jeśli więc maszyny potrafią zrozumieć, jak się czujemy, i wytworzyć pomocną, a nawet „opiekuńczą” reakcję, to czy możemy powiedzieć, że są emocjonalnie inteligentne? Czy fakt, że sztuczna inteligencja potrafi rozpoznać emocje, jest równoznaczny z tym, że potrafi je odczuwać?

Czasem ludzie nie potrafią nazwać swoich emocji. Być może w przyszłości będzie można zapytać się Alexy: „Alexa, jak ja się dzisiaj czuję?”, i w odpowiedzi usłyszymy, że z 96 procentowym prawdopodobieństwem czujemy radość. Aplikacje budowane w oparciu o sztuczną inteligencję pomogą nam lepiej zrozumieć samych siebie. Być może wesprą nas terapeutycznie w tym, jak z niektórymi emocjami, takimi jak zazdrość czy chora ambicja, sobie poradzić.

W tej wizji przyszłości nie widzę maszyn, które jak we wspomnianej na początku reklamie IBM potrzebują wsparcia w okiełznaniu własnych uczuć. Ale potrafię sobie wyobrazić asystenta cyfrowego, który pomaga nam jak terapeuta lub trener: zadaje pytania głosem wzbudzającym zaufanie, trafnie interpretuje zachowania w kontekście i uważnie słucha  – bo nigdzie się nie spieszy. 

Artykuł został opublikowany w 8 numerze Magazynu NNO.

Kup magazyn w wersji papierowej!

Udostępnij: