...
🧑 💻 Avaliações e notícias do mundo dos programas, carros, aparelhos e computadores. Artigos sobre jogos e hobbies.

Talvez o Alexa e o Google Assistant não devam melhorar sua compreensão

1

Lukmanazis / Shutterstock.com

Assistentes de voz como Google Assistant e Alexa fazem parte da vida cotidiana. Eles estão em telefones, laptops, paredes e controlam casas inteligentes. Mas eles podem ser difíceis de usar, especialmente para quem fala inglês “fora do padrão". As compilações estão tentando resolver esse problema, mas e se isso for ruim?

Ao tornar os assistentes de voz em casas inteligentes e em smartphones mais fáceis de usar, as empresas podem realmente estar diminuindo a capacidade de seus usuários funcionarem no mundo todo. Existem cerca de 1,35 bilhão de falantes de inglês em todo o mundo, dos quais 400 milhões são ” falantes nativos “.

Portanto, é seguro assumir que aproximadamente 2/3 dos falantes de inglês têm algum grau de sotaque puramente porque não é sua primeira língua. Então, com os 400 milhões de pessoas que falam inglês como primeira língua, você tem vários sotaques nacionais (britânico, canadense, americano, australiano etc.). Em cada país, você tem dialetos regionais e assim por diante.

Se as empresas escolhessem e aperfeiçoassem um único dialeto, digamos American Standard English, seu produto só seria utilizável por uma pequena fração de falantes de inglês. Por outro lado, se forem longe demais, podem roubar das pessoas o que pode ser uma ferramenta muito útil para desenvolver suas habilidades de comunicação.

Como as empresas de tecnologia estão tentando melhorar as coisas?

Talvez o Alexa e o Google Assistant não devam melhorar sua compreensão

Tyler Nottley / Shutterstock.com

Os assistentes de voz trabalham para entender melhor os comandos de seus usuários desde que eles existem. Microsoft, Apple, Google e Amazon estão entre os grandes nomes que injetaram uma tonelada de recursos em seus respectivos assistentes de voz e querem torná-los o mais acessíveis e livres de frustrações para o maior número possível de pessoas.

Isso envolveu a contratação de pessoas com sotaques específicos para gravar centenas de comandos de voz e conversas, que podem ser usadas para ensinar dialetos de IA. Durante um dos meus meses mais magros, decidi lucrar com meu sotaque sexy do norte e passei horas gravando centenas de palavras e frases aparentemente aleatórias para uma empresa chamada Appen.

Essa empresa então pegou minhas gravações e as enviou para Amazon, Google, Microsoft ou qualquer outra pessoa que as estivesse pagando. Os trechos de voz são teoricamente usados ​​para melhorar qualquer IA que a empresa que os comprou esteja desenvolvendo.

Alguns assistentes de voz podem até ser treinados para entender melhor a voz exata da pessoa que o usa. Ao contrário de esperar que a grande tecnologia melhore seu jogo, isso produz resultados imediatos e pode ajudar significativamente a precisão do seu assistente de voz. Ele também permite que vários usuários acessem seus perfis de casa inteligente sem precisar alternar manualmente.

Então, por que isso pode ser uma coisa ruim?

Talvez o Alexa e o Google Assistant não devam melhorar sua compreensão

Juan Ci / Shutterstock.com

Eu poderia me safar dizendo: “Alexer, serruz um alarme para as oito horas de amanhã”, mas tentar pedir músicas é onde a luta realmente começa. Demorou cerca de três meses de comunicação com a Amazon Music e alguns milhares de palavrões frustrados, mas agora posso dizer “toque Happy Hour de The Housemartins” tão claramente quanto um locutor de notícias da BBC dos anos 80. Ainda há ocasiões em que peço por Paul Weller e de alguma forma acabo com Ella Fitzgerald, mas sempre há espaço para melhorar.

O lado positivo que veio com as lutas com o sotaque é o fato de meu inglês ter melhorado. Agora posso me comunicar com mais clareza do que nunca. Isso é útil porque a tecnologia pode melhorar até o ponto em que a IA do meu smartphone pode me entender – mas isso não me fará muito bem quando estiver usando o telefone para falar com outro ser humano.

Outro benefício é que não matei totalmente meu sotaque no processo. Se eu tivesse optado por desembolsar aulas de elocução, eu poderia estar recitando frases na pronúncia recebida. A identidade é importante; sotaques são uma parte importante da cultura e do passado de alguém.

O Reino Unido, por exemplo, tem um sotaque distinto a cada poucos quilômetros. Há um mapa que está circulando pela internet há alguns anos que parece extenso, mas ainda mal arranha a superfície. Uma pequena parte do Nordeste é rotulada como tendo um sotaque “Teesside”, mas os nativos de cada cidade nessa área (Middlesbrough, Hartlepool, Stockton e Billingham) falam de maneira diferente.

Agora imagine as variações em um condado do tamanho de Yorkshire. As pessoas também tendem a se identificar com o lugar de onde vêm e a preservar muito de sua cultura. Os acentos são uma grande parte disso; nem todo mundo quer soar como Hugh Grant. Podemos ter sido mimados nos últimos anos, já que muitas pessoas agora ficam felizes em sentar e esperar que a tecnologia compense suas deficiências – e em muitos casos, ela fará exatamente isso. Mas às vezes, conhecer a tecnologia no meio é mais rápido e melhor a longo prazo.


Os assistentes de voz precisam ser acessíveis ao maior número possível de pessoas. Se você tivesse que falar com a pronúncia recebida perfeita antes que a Siri lhe desse a hora do dia, um dos sucessos mais significativos da Apple seria inútil para mais de 99,9% dos falantes de inglês.

Mesmo algo como um sotaque americano padrão excluiria a maioria dos usuários nos Estados Unidos, não importa em todo o mundo. Portanto, é óbvio por que as empresas estão se esforçando tanto para ensinar seus softwares a entender o maior número possível de dialetos. E assim deveriam. Mas eles só devem ir tão longe.

Seria melhor se a Apple, Google, et al. evite adotar uma mentalidade perfeccionista e, em vez disso, busque apenas um padrão que permita a acessibilidade, mas ainda exija um pouco de cuidado por parte dos usuários. Em uma nota pessoal, a relutância de Alexa em ouvir qualquer coisa além de uma fala clara me forçou a pensar em como eu pronuncio as coisas.

Meu discurso é sem dúvida mais claro do que antes de ter que lidar com um assistente de voz várias vezes ao dia. Não era algo que eu pretendia fazer; foi um efeito colateral não intencional e muito benéfico – e se funcionou para mim, pode funcionar para outras pessoas também.

Fonte de gravação: www.reviewgeek.com

Este site usa cookies para melhorar sua experiência. Presumiremos que você está ok com isso, mas você pode cancelar, se desejar. Aceitar Consulte Mais informação