fbpx
Podcast Projektowanie treści Studium przypadku

Głos ma znaczenie – interfejsy głosowe i emocje

Interfejsy głosowe coraz mocniej wkraczają do naszego życia. Towarzyszą nam na lotniskach, w kasach samoobsługowych, aplikacjach bankowych, zostają asystentami codzienności. Są wygodne, szybkie i skuteczne, ale… rzadko sprawiają, że czujemy się zaopiekowani. Dlaczego? Bo wiele z nich brzmi formalnie, bezdusznie i bardziej przypomina głos surowego nauczyciela, niż doradcy.

W najnowszym odcinku mojego podcastu podzieliłam się swoimi obserwacjami dotyczącymi interfejsów głosowych. Przez ostatnie dwa lata nagrywałam i analizowałam różne automatyczne systemy głosowe, spotykane na co dzień w Polsce. Niektóre mnie zaskoczyły, inne – irytowały.

Zainspirowała mnie też książka „Conversation with Things: UX Design for Chat and Voice” autorstwa Diany Dibel i Rebeki Ivanhoe, która kompleksowo opisuje projektowanie interfejsów głosowych i botów. Czego się nauczyłam? Tego, że interfejsy głosowe mogą – a wręcz powinny – być bardziej ludzkie.

Posłuchaj podcastu z udziałem botów

Listen to „Mówiące boty: wkurzają, irytują, śmieszą… pomagają?” on Spreaker.

Dlaczego głos ma znaczenie w UX?

Głos jest najbardziej naturalnym i intuicyjnym sposobem komunikacji. To przez ton, barwę i tempo mówienia wyrażamy emocje i budujemy relacje. Nic dziwnego, że coraz więcej firm decyduje się na interfejsy głosowe jako element obsługi klienta. Problem w tym, że głos w automatyzacji często traci ciepło i staje się narzędziem bardziej technicznym niż przyjaznym. Szczególnie widoczne było to w momencie, kiedy Google zdecydował się oddać nawigację Google Maps robotowi.

Pomyślcie o kasach samoobsługowych. Brzmią znajomo, prawda?

  • „Umieść artykuł w strefie pakowania”
  • „Wprowadź kod artykułu”
  • „Skanuj artykuł. Skanuj artykuł.”

Takie komunikaty są nie tylko bezosobowe, ale i stresujące. Gdy system powtarza monotonne zdania, czujemy się bardziej jak uczniowie na egzaminie niż klienci na zakupach. Interfejsy głosowe tego typu nie budują pozytywnego doświadczenia – i to jest kluczowy problem, nad którym musimy pracować.

Dlaczego interfejsy głosowe frustrują?

Analizując różne interfejsy głosowe w Polsce, zauważyłam kilka powtarzających się błędów:

1. Zbyt formalny język
Słowa takie jak „kontynuować”, „wprowadź kod” czy „proszę o identyfikację” są typowe dla automatycznych systemów, ale w naturalnej rozmowie niemal ich nie używamy. Ludzie wolą proste komunikaty – zamiast „Czy chcesz kontynuować?” można odwołać się do codziennego języka i czynności np. „Dodasz coś jeszcze?”.

2. Chłodny ton głosu
Automatyczne systemy często brzmią jak odczyty z megafonu na dworcu – monotonne i formalne. Brakuje w nich emocji, modulacji i ciepła. Interfejsy głosowe powinny być projektowane tak, by ich ton brzmiał bardziej jak rozmowa z życzliwym człowiekiem, a nie komenda.

3. Zbyt duża liczba komunikatów naraz
W sklepach zdarza się, że kilka kas samoobsługowych mówi jednocześnie, tworząc dźwiękowy chaos. To nie tylko dekoncentruje, ale sprawia, że klienci nie wiedzą, który komunikat jest skierowany do nich.

Pamiętam wizytę w markecie budowlanym, gdzie głos kasy co kilka sekund przypominał: „Skanuj artykuł”. A ja w tym czasie powoli wyjmowałam wielką deskę, bo rzeczy w tego typu sklepach skanujemy trochę wolniej, choćby przez ich gabaryty.

Interfejsy głosowe z empatią – przykład z banku

Na szczęście nie wszystkie interfejsy głosowe są takie. Wzorem muszą być oczywiście ludzie.

Jeden z pozytywnych przykładów, który zapadł mi w pamięć, pochodzi z mojego banku, Pekao SA. Potrzebowałam ponownie uzyskać PIN do nowej karty, więc udałam się do placówki. Pracownica banku wyjaśniła mi, że kod PIN przyjdzie na telefon w formie komunikatu, a nie SMS-a, i doradziła, żebym w czasie oczekiwania na numer nigdzie nie wychodziła, ani nie była rozproszona. Dzięki temu nie przegapiłam ważnej wiadomości i PIN mi nie umknął.

Ta sytuacja pokazała mi, jak ważna jest empatia w projektowaniu interfejsów głosowych. Co by było, gdyby taki poziom troski można było zaszczepić w automatycznych systemach?

I tu dochodzimy do botki z Santander Consumer Banku – automatycznego systemu, który zadzwonił do mnie w sprawie kredytu. Botka mówiła ciepło, jasno i z naturalnymi pauzami, a rozmowa przebiegła w przyjemnej atmosferze. Nawet kiedy zapytałam: „Czy pani jest robotem?”, odpowiedziała: „Jestem robotem, który wspiera Santander Consumer Bank” – i wróciła do głównego tematu rozmowy.

Co możemy poprawić w projektowaniu interfejsów głosowych?

1. Język codzienny i prosty
Unikajmy urzędowych sformułowań. Zamiast „Proszę o podanie numeru identyfikacyjnego” – „Podaj numer klienta”. Naturalny język sprawia, że użytkownik czuje się bardziej komfortowo.

2. Ciepły ton i modulacja
Automaty mogą mówić z ciepłem i troską. Projektując interfejsy głosowe, pomyślmy o tym, jak mówilibyśmy do znajomego – przyjaźnie i jasno.

3. Personalizacja i osobowość bota
Każdy bot powinien mieć osobowość – czy będzie towarzyski, żartobliwy, czy rzeczowy. Taki system nie tylko poprawia UX, ale buduje więź z użytkownikiem.

UX writing a interfejsy głosowe

UX writing to fundament skutecznych interfejsów, również tych głosowych. To sztuka pisania komunikatów tak, by były intuicyjne i dostosowane do użytkownika. Projektując interfejsy głosowe, kluczowe jest testowanie języka – czy brzmi naturalnie i czy użytkownik nie czuje się zagubiony.


Polecam:

  • Sięgnij po książkę Conversation with Things: UX Design for Chat and Voice” autorstwa Diany Dibel i Rebeki Ivanhoe.

Obrazy do artykułu: moje zdjęcie (autor: Tomek Piątkowski) + ilustracja wygenerowana przez AI