Robot, który sprawia wrażenie uśmiechniętego.

Hume AI – sztuczna inteligencja rozumiejąca emocje?

Wiele mówi się o tym, że sztuczna inteligencja może naśladować pewne zdolności poznawcze ludzi, ale nigdy nie zrozumie złożoności ich emocjonalnego świata. Czy aby na pewno? Jak się ma do tego rozwijające się Hume AI?

Czym w ogóle zajmuje się Hume AI?

Hume AI swoją nazwę zawdzięcza szkockiemu filozofowi, Davidowi Hume’owi. Zasłynął on z wielu nowatorskich idei, ale dla tych twórców sztucznej inteligencji najważniejszym jest nacisk, jaki kładł on na emocje. Wyodrębnił ich kilkanaście i twierdził, że to one kierują naszymi działaniami, nawet jeśli życzylibyśmy sobie być istotami w pełni racjonalnymi.

Portret Davida Hume'a, szkockiego filozofa.
Portret Hume’a, który stanowił inspirację dla założycieli firmy Hume AI. Obraz Allana Ramsaya z 1766, obecnie znajduje się w Scottish National Portrait Gallery. Źródło obrazu: commons.wikimedia.org

To były jednak rozważania czysto filozoficzne. Jednak kiedy za temat wzięli się naukowcy z różnych dziedzin, okazało się, że prawdziwą jest intuicja, że emocje odgrywają pierwszorzędną rolę w naszych życiach. Hume AI chce kontynuować badania w tym obszarze. Jest to też firma, tworząca rozmaite modele sztucznej inteligencji, których cechą wspólną ma być umiejętność reakcji na emocje, rozumienie ich i wykazywanie się… empatią?

Idee stojące za Hume AI – służba dobrostanowi ludzi

Z przedsiębiorstwem Hume AI związana jest inicjatywa non-profit Hume Initiative. Na stronach obu tych organizacji, możemy przeczytać nieco o tym, jakie wartości przyświecają ludziom związanym z tymi projektami. Mówią o tym, że rozwijają nowe technologie, po to, aby jak najlepiej służyły one ludziom.

Sądzą oni, że nauczenie AI rozpoznawania ludzkich emocji przez ich zewnętrzne oznaki, może ulepszyć nasze życia pod wieloma aspektami. Mogą ułatwić pracę animatorów przez szybsze projektowanie mimiki postaci, udoskonalić narzędzia obsługi klienta (np. chatboty na stronach sklepów), wspierać edukację i research naukowy, pomagać w psychoterapii (zarówno pacjentowi, jak i terapeucie) czy zostać wdrożone w robotach, które reagowałyby odpowiednio na stan emocjonalny osób, które z nich korzystają. A jest tego jeszcze dużo więcej.

Na stronie Hume Initiative możemy wyczytać też, że nie wspierają oni wszystkich zastosowań nowych technologii. Sprzeciwiają się używaniu ich przez media społecznościowe do zwiększania screen time’u użytkowników, manipulacjom i deepfake’om czy tworzeniu z nich narzędzi, które miałyby umyślnie zwiększać czyjeś negatywne emocje.

Piszą wiele o przyświecających im ideałach i to budzi pewne zaufanie. Chociaż oczywiście – takim korporacjom zawsze należy patrzeć na ręce i ludzie powinni to robić. Same deklaracje nie mogą być wystarczające.

Jak nauczyć AI rozpoznawać emocje? Naukowa strona przedsięwzięcia

Wciąż zostaje pytanie – czy AI naprawdę potrafi rozpoznawać emocje ludzi? A jeśli tak, to w jaki sposób? W jakim stopniu?

Na razie sferą science-fiction pozostaje technologia, które czyta w umysłach ludzi. Hume AI tego nie zmienia. Tworzą sztuczną inteligencję, które może rozpoznawać emocje przez to jak objawiają się one u ludzi na zewnątrz. Mowa tu o słownych opisach, prozodii głosu (ton, akcent, tempo i inne takie) lub mimice. Z badań psychologicznych jasno wynika jak to wszystko potrafi zdradzać, często niezależnie od kultury w której żyjemy, emocje jakie przeżywamy.

Mężczyzna w czerwonym swetrze na tle niebieskiego muru. Słucha muzyki i uśmiecha się szeroko.
Emocje u innych ludzi, w dużej mierze jesteśmy w stanie rozpoznać po ekspresji mimicznej. Tutaj przykład radości. Źródło zdjęcia: pexels.com, Andrea Piacquadio

To model, który polega na uczeniu maszynowym, czyli przyswajaniu ogromnej liczby danych i działaniu w oparciu o nie. A jak uczy się odczytywać np. prozodię głosu? Robi to dzięki niezależnym ocenom wielu ludzi, którzy zaklasyfikowali jakąś emocję jako np. bardziej ciekawość niż zaskoczenie.

Segment dla nerdów psychologicznych – Semantic Space Theory

Jednocześnie Hume AI jest research labem, czyli zajmuje się badaniami naukowymi. I nie dość, że wykorzystują badania naukowe, żeby tworzyć swoje AI; to wykorzystują oni AI po to, aby doskonalić narzędzia naukowe i teorie, którymi dysponują.

Ich modele są oparte na tzw. Semantic Space Theory, czyli na polski: Teorii Przestrzeni Semantycznej. To brzmi dość skomplikowanie, ale w gruncie rzeczy chodzi o dwie proste sprawy:

  1. Emocji jest wiele, bo nawet dwadzieścia! Jeśli chcemy określić jaką emocje przeżywa człowiek, potrzeba określenia wielu jej wymiarów;
  2. Nie da się powiedzieć, że osobno jest złość i wstręt, albo osobno radość i miłość. Emocje płynnie przechodzą z jednej do drugiej i jest wiele ich odmian.

To spora różnica względem niektórych teorii emocji, które są nawet dziś popularne w psychologii, a zakładają np. istnienie „sześciu podstawowych emocji”. Mnie np. niesamowicie jarają mapy emocji, które Hume AI tworzą. Tu jedna, złożona z wypowiedzi ludzi w różnych tonach:

Mapa emocji Hume AI, w oparciu o wypowiedzi ludzi utrzymane w różnej prozodii.
Mapa emocji Hume AI, w oparciu o wypowiedzi ludzi utrzymane w różnej prozodii. Mamy tu dość oczywiste pozycje jak lęk i radość, ale też mniej oczywiste jak zwątpienie i determinacja. Źródło screena: www.hume.ai

Pobawcie się tym sami:

https://www.hume.ai/products/speech-prosody-model

Konkretne narzędzia, które tworzy Hume AI – OCTAVE i EVI

Hume AI stworzyło do tej pory dwa główne narzędzia. Pierwszym z nich jest OCTAVE, czyli moduł TTS (text-to-speech), czyli taki, który czyta to, co do niego napiszemy. Robi to w dodatku na różne sposoby, zależnie od tego jak go poinstruujemy. Możemy użyć OCTAVE’a, by coś wyszeptał lekko poddenerwowany, entuzjastycznie opowiedział o tym, co lubi albo wydusił z siebie coś z obrzydzeniem. I idzie mu to wszystko całkiem nieźle.

Na podobnej zasadzie działa EVI 3, ale to już jest moduł STS (speech-to-speech), czyli AI, do którego możemy mówić i na bieżąco będzie nam odpowiadał. Możemy dostosować go do własnych potrzeb, a on będzie nam udzielał informacji i dostosowywał się do naszego nastroju. EVI 3 wykorzystują już teraz różne apki terapeutyczne, związane z nauką języka czy nawet inwestowaniem na giełdzie!

To jak będzie z tym empatycznym AI?

Jak już pisałem wyżej, na razie AI nie może (i nie zanosi się na to, żeby prędko mogło) czytać w naszych umysłach. Niemniej, tak czy tak, trochę niepokojącym jest wizja technologii, która „rozumie” ludzkie emocje i może na nie reagować, potencjalnie wyrządzając krzywdę. Może być to wykorzystane w dobrych celach, ale może też stwarzać nowe problemy.

Mnie fascynuje rozwój Hume AI. Osoby, które prowadzą to przedsiębiorstwo zdają się być odpowiedzialne, a dotychczasowe jego użycia etyczne i uczciwe. Sądzę, że jest to rzecz, którą powinni śledzić ludzie zainteresowani sztuczną inteligencją, ale też ogólnie społeczeństwem i człowiekiem. Bo nowa, „empatyczna” AI może zmienić sposoby, w jaki wchodzimy w interakcje ze światem i innymi.

Źródła:

  • J. Brooks, What is emotion science?, 2024, Hume AI Blog, https://www.hume.ai/blog/what-is-emotion-science, [dostęp: 19.06.25]
  • J. Brooks, What is semantic space theory?, 2024, Hume AI Blog, https://www.hume.ai/blog/what-is-semantic-space-theory, [dostęp: 19.06.25]
  • J. Brooks, Can AI “detect” emotions?, 2024, Hume AI Blog, https://www.hume.ai/blog/can-ai-detect-emotions, [dostęp: 19.06.25]
  • Strona Hume AI, hume.ai, [dostęp: 19.06.25]
  • Strona Hume Initiative, thehumeinitiative.org, [dostęp: 19.06.25]

Podobne wpisy