Blog Kamili Paradowskiej o projektowaniu treści i kreatywnym pisaniu. Usługi: tworzenie treści (copywriting, UX writing, projektowanie komunikacji dla firm, audyty stron, produkcja audio i wideo). Szkolenia dla zespołów kreatywnych, kursy online.
Interfejsy głosowe coraz mocniej wkraczają do naszego życia. Towarzyszą nam na lotniskach, w kasach samoobsługowych, aplikacjach bankowych, zostają asystentami codzienności. Są wygodne, szybkie i skuteczne, ale… rzadko sprawiają, że czujemy się zaopiekowani. Dlaczego? Bo wiele z nich brzmi formalnie, bezdusznie i bardziej przypomina głos surowego nauczyciela, niż doradcy.
W najnowszym odcinku mojego podcastu podzieliłam się swoimi obserwacjami dotyczącymi interfejsów głosowych. Przez ostatnie dwa lata nagrywałam i analizowałam różne automatyczne systemy głosowe, spotykane na co dzień w Polsce. Niektóre mnie zaskoczyły, inne – irytowały.
Zainspirowała mnie też książka „Conversation with Things: UX Design for Chat and Voice” autorstwa Diany Dibel i Rebeki Ivanhoe, która kompleksowo opisuje projektowanie interfejsów głosowych i botów. Czego się nauczyłam? Tego, że interfejsy głosowe mogą – a wręcz powinny – być bardziej ludzkie.
Głos jest najbardziej naturalnym i intuicyjnym sposobem komunikacji. To przez ton, barwę i tempo mówienia wyrażamy emocje i budujemy relacje. Nic dziwnego, że coraz więcej firm decyduje się na interfejsy głosowe jako element obsługi klienta. Problem w tym, że głos w automatyzacji często traci ciepło i staje się narzędziem bardziej technicznym niż przyjaznym. Szczególnie widoczne było to w momencie, kiedy Google zdecydował się oddać nawigację Google Maps robotowi.
Pomyślcie o kasach samoobsługowych. Brzmią znajomo, prawda?
„Umieść artykuł w strefie pakowania”
„Wprowadź kod artykułu”
„Skanuj artykuł. Skanuj artykuł.”
Takie komunikaty są nie tylko bezosobowe, ale i stresujące. Gdy system powtarza monotonne zdania, czujemy się bardziej jak uczniowie na egzaminie niż klienci na zakupach. Interfejsy głosowe tego typu nie budują pozytywnego doświadczenia – i to jest kluczowy problem, nad którym musimy pracować.
Dlaczego interfejsy głosowe frustrują?
Analizując różne interfejsy głosowe w Polsce, zauważyłam kilka powtarzających się błędów:
1. Zbyt formalny język Słowa takie jak „kontynuować”, „wprowadź kod” czy „proszę o identyfikację” są typowe dla automatycznych systemów, ale w naturalnej rozmowie niemal ich nie używamy. Ludzie wolą proste komunikaty – zamiast „Czy chcesz kontynuować?” można odwołać się do codziennego języka i czynności np. „Dodasz coś jeszcze?”.
2. Chłodny ton głosu Automatyczne systemy często brzmią jak odczyty z megafonu na dworcu – monotonne i formalne. Brakuje w nich emocji, modulacji i ciepła. Interfejsy głosowe powinny być projektowane tak, by ich ton brzmiał bardziej jak rozmowa z życzliwym człowiekiem, a nie komenda.
3. Zbyt duża liczba komunikatów naraz W sklepach zdarza się, że kilka kas samoobsługowych mówi jednocześnie, tworząc dźwiękowy chaos. To nie tylko dekoncentruje, ale sprawia, że klienci nie wiedzą, który komunikat jest skierowany do nich.
Pamiętam wizytę w markecie budowlanym, gdzie głos kasy co kilka sekund przypominał: „Skanuj artykuł”. A ja w tym czasie powoli wyjmowałam wielką deskę, bo rzeczy w tego typu sklepach skanujemy trochę wolniej, choćby przez ich gabaryty.
Interfejsy głosowe z empatią – przykład z banku
Na szczęście nie wszystkie interfejsy głosowe są takie. Wzorem muszą być oczywiście ludzie.
Jeden z pozytywnych przykładów, który zapadł mi w pamięć, pochodzi z mojego banku, Pekao SA. Potrzebowałam ponownie uzyskać PIN do nowej karty, więc udałam się do placówki. Pracownica banku wyjaśniła mi, że kod PIN przyjdzie na telefon w formie komunikatu, a nie SMS-a, i doradziła, żebym w czasie oczekiwania na numer nigdzie nie wychodziła, ani nie była rozproszona. Dzięki temu nie przegapiłam ważnej wiadomości i PIN mi nie umknął.
Ta sytuacja pokazała mi, jak ważna jest empatia w projektowaniu interfejsów głosowych. Co by było, gdyby taki poziom troski można było zaszczepić w automatycznych systemach?
I tu dochodzimy do botki z Santander Consumer Banku – automatycznego systemu, który zadzwonił do mnie w sprawie kredytu. Botka mówiła ciepło, jasno i z naturalnymi pauzami, a rozmowa przebiegła w przyjemnej atmosferze. Nawet kiedy zapytałam: „Czy pani jest robotem?”, odpowiedziała: „Jestem robotem, który wspiera Santander Consumer Bank” – i wróciła do głównego tematu rozmowy.
Co możemy poprawić w projektowaniu interfejsów głosowych?
1. Język codzienny i prosty Unikajmy urzędowych sformułowań. Zamiast „Proszę o podanie numeru identyfikacyjnego” – „Podaj numer klienta”. Naturalny język sprawia, że użytkownik czuje się bardziej komfortowo.
2. Ciepły ton i modulacja Automaty mogą mówić z ciepłem i troską. Projektując interfejsy głosowe, pomyślmy o tym, jak mówilibyśmy do znajomego – przyjaźnie i jasno.
3. Personalizacja i osobowość bota Każdy bot powinien mieć osobowość – czy będzie towarzyski, żartobliwy, czy rzeczowy. Taki system nie tylko poprawia UX, ale buduje więź z użytkownikiem.
UX writing a interfejsy głosowe
UX writing to fundament skutecznych interfejsów, również tych głosowych. To sztuka pisania komunikatów tak, by były intuicyjne i dostosowane do użytkownika. Projektując interfejsy głosowe, kluczowe jest testowanie języka – czy brzmi naturalnie i czy użytkownik nie czuje się zagubiony.
Polecam:
Sięgnij po książkę „Conversation with Things: UX Design for Chat and Voice” autorstwa Diany Dibel i Rebeki Ivanhoe.
Obrazy do artykułu: moje zdjęcie (autor: Tomek Piątkowski) + ilustracja wygenerowana przez AI
Przenoszę komunikację marek na wyższy poziom. Projektuję ich obecność online (strony www, blogi, wideo, podcasty, prezentacje multimedialne) i uczę, jak robić to efektywnie. Pracowałam dla dużych marek: Aviva, Medicover, Bonami, ale także z mniejszych firm z branży IT (Ququplay, Cloudeamons), instytucji kultury i lokalnych przedsiębiorców.
Interfejsy głosowe coraz mocniej wkraczają do naszego życia. Towarzyszą nam na lotniskach, w kasach samoobsługowych, aplikacjach bankowych, zostają asystentami codzienności. Są wygodne, szybkie i skuteczne, ale… rzadko sprawiają, że czujemy się zaopiekowani. Dlaczego? Bo wiele z nich brzmi formalnie, bezdusznie i bardziej przypomina głos surowego nauczyciela, niż doradcy.
W najnowszym odcinku mojego podcastu podzieliłam się swoimi obserwacjami dotyczącymi interfejsów głosowych. Przez ostatnie dwa lata nagrywałam i analizowałam różne automatyczne systemy głosowe, spotykane na co dzień w Polsce. Niektóre mnie zaskoczyły, inne – irytowały.
Zainspirowała mnie też książka „Conversation with Things: UX Design for Chat and Voice” autorstwa Diany Dibel i Rebeki Ivanhoe, która kompleksowo opisuje projektowanie interfejsów głosowych i botów. Czego się nauczyłam? Tego, że interfejsy głosowe mogą – a wręcz powinny – być bardziej ludzkie.
Posłuchaj podcastu z udziałem botów
Listen to „Mówiące boty: wkurzają, irytują, śmieszą… pomagają?” on Spreaker.Dlaczego głos ma znaczenie w UX?
Głos jest najbardziej naturalnym i intuicyjnym sposobem komunikacji. To przez ton, barwę i tempo mówienia wyrażamy emocje i budujemy relacje. Nic dziwnego, że coraz więcej firm decyduje się na interfejsy głosowe jako element obsługi klienta. Problem w tym, że głos w automatyzacji często traci ciepło i staje się narzędziem bardziej technicznym niż przyjaznym. Szczególnie widoczne było to w momencie, kiedy Google zdecydował się oddać nawigację Google Maps robotowi.
Pomyślcie o kasach samoobsługowych. Brzmią znajomo, prawda?
Takie komunikaty są nie tylko bezosobowe, ale i stresujące. Gdy system powtarza monotonne zdania, czujemy się bardziej jak uczniowie na egzaminie niż klienci na zakupach. Interfejsy głosowe tego typu nie budują pozytywnego doświadczenia – i to jest kluczowy problem, nad którym musimy pracować.
Dlaczego interfejsy głosowe frustrują?
Analizując różne interfejsy głosowe w Polsce, zauważyłam kilka powtarzających się błędów:
1. Zbyt formalny język
Słowa takie jak „kontynuować”, „wprowadź kod” czy „proszę o identyfikację” są typowe dla automatycznych systemów, ale w naturalnej rozmowie niemal ich nie używamy. Ludzie wolą proste komunikaty – zamiast „Czy chcesz kontynuować?” można odwołać się do codziennego języka i czynności np. „Dodasz coś jeszcze?”.
2. Chłodny ton głosu
Automatyczne systemy często brzmią jak odczyty z megafonu na dworcu – monotonne i formalne. Brakuje w nich emocji, modulacji i ciepła. Interfejsy głosowe powinny być projektowane tak, by ich ton brzmiał bardziej jak rozmowa z życzliwym człowiekiem, a nie komenda.
3. Zbyt duża liczba komunikatów naraz
W sklepach zdarza się, że kilka kas samoobsługowych mówi jednocześnie, tworząc dźwiękowy chaos. To nie tylko dekoncentruje, ale sprawia, że klienci nie wiedzą, który komunikat jest skierowany do nich.
Pamiętam wizytę w markecie budowlanym, gdzie głos kasy co kilka sekund przypominał: „Skanuj artykuł”. A ja w tym czasie powoli wyjmowałam wielką deskę, bo rzeczy w tego typu sklepach skanujemy trochę wolniej, choćby przez ich gabaryty.
Interfejsy głosowe z empatią – przykład z banku
Na szczęście nie wszystkie interfejsy głosowe są takie. Wzorem muszą być oczywiście ludzie.
Jeden z pozytywnych przykładów, który zapadł mi w pamięć, pochodzi z mojego banku, Pekao SA. Potrzebowałam ponownie uzyskać PIN do nowej karty, więc udałam się do placówki. Pracownica banku wyjaśniła mi, że kod PIN przyjdzie na telefon w formie komunikatu, a nie SMS-a, i doradziła, żebym w czasie oczekiwania na numer nigdzie nie wychodziła, ani nie była rozproszona. Dzięki temu nie przegapiłam ważnej wiadomości i PIN mi nie umknął.
Ta sytuacja pokazała mi, jak ważna jest empatia w projektowaniu interfejsów głosowych. Co by było, gdyby taki poziom troski można było zaszczepić w automatycznych systemach?
I tu dochodzimy do botki z Santander Consumer Banku – automatycznego systemu, który zadzwonił do mnie w sprawie kredytu. Botka mówiła ciepło, jasno i z naturalnymi pauzami, a rozmowa przebiegła w przyjemnej atmosferze. Nawet kiedy zapytałam: „Czy pani jest robotem?”, odpowiedziała: „Jestem robotem, który wspiera Santander Consumer Bank” – i wróciła do głównego tematu rozmowy.
Co możemy poprawić w projektowaniu interfejsów głosowych?
1. Język codzienny i prosty
Unikajmy urzędowych sformułowań. Zamiast „Proszę o podanie numeru identyfikacyjnego” – „Podaj numer klienta”. Naturalny język sprawia, że użytkownik czuje się bardziej komfortowo.
2. Ciepły ton i modulacja
Automaty mogą mówić z ciepłem i troską. Projektując interfejsy głosowe, pomyślmy o tym, jak mówilibyśmy do znajomego – przyjaźnie i jasno.
3. Personalizacja i osobowość bota
Każdy bot powinien mieć osobowość – czy będzie towarzyski, żartobliwy, czy rzeczowy. Taki system nie tylko poprawia UX, ale buduje więź z użytkownikiem.
UX writing a interfejsy głosowe
UX writing to fundament skutecznych interfejsów, również tych głosowych. To sztuka pisania komunikatów tak, by były intuicyjne i dostosowane do użytkownika. Projektując interfejsy głosowe, kluczowe jest testowanie języka – czy brzmi naturalnie i czy użytkownik nie czuje się zagubiony.
Polecam:
Obrazy do artykułu: moje zdjęcie (autor: Tomek Piątkowski) + ilustracja wygenerowana przez AI
Przenoszę komunikację marek na wyższy poziom. Projektuję ich obecność online (strony www, blogi, wideo, podcasty, prezentacje multimedialne) i uczę, jak robić to efektywnie. Pracowałam dla dużych marek: Aviva, Medicover, Bonami, ale także z mniejszych firm z branży IT (Ququplay, Cloudeamons), instytucji kultury i lokalnych przedsiębiorców.