Acessibilidade / Reportar erro

Reconhecimento da prosódia emocional por meio de pseudopalavras do Hoosier Vocal Emotions Collection

RESUMO

Objetivo:

verificar se o corpus do Hoosier Vocal Emotions Collection permite a identificação de diferentes prosódias emocionais em adultos brasileiros, além de vislumbrar se a respectiva identificação é igual entre os sexos.

Métodos:

60 adultos hígidos distribuídos igualmente pelo sexo, com idades entre 18 e 42 anos, participaram do Mini-Exame do Estado Mental e de subtestes relacionados à prosódia (bateria Montreal de comunicação e os do corpus do Hoosier Vocal Emotions Collection, com 73 pseudopalavras produzidas por duas atrizes distintas). A análise dos resultados ocorreu por estatística descritiva e pelo teste Qui-quadrado com significância de 5%.

Resultados:

de forma geral, as prosódias emocionais do Hoosier Vocal Emotions Collection foram identificadas com precisão média de 43,63%, com maiores acertos, em ordem decrescente, para: neutro, tristeza, alegria, aversão, raiva e medo. Em relação ao sexo, houve diferenças estatisticamente significantes quanto aos acertos nas prosódias de neutralidade e aversão para o masculino, enquanto para o feminino nas prosódias de alegria e raiva. Ambos os sexos apresentaram maior dificuldade na identificação da prosódia relacionada ao medo.

Conclusão:

o corpus do Hoosier Vocal Emotions Collection permitiu a identificação das prosódias emocionais testadas na amostra estudada, sendo constatada presença de dismorfismo sexual em relação à identificação prosódica emocional.

Descritores:
Emoções; Reconhecimento de Voz; Fonoaudiologia

ABSTRACT

Purpose:

to verify whether the Hoosier Vocal Emotions Collection corpus allows the identification of different emotional prosodies in Brazilian adults.

Methods:

60 healthy adults equally distributed by sex, aged between 18 and 42 years, participated in the Mini-Mental State Examination and subtests related to prosody (Montreal communication battery and those from the Hoosier Vocal Emotions Collection corpus, with 73 pseudowords produced by two different actresses). The results were analyzed using descriptive statistics and the Chi-square test, which had a significance of 5%.

Results:

in general, the emotional prosodies from the Hoosier Vocal Emotions Collection were identified with an average accuracy of 43.63%, with the highest hits, in descending order, for neutrality, sadness, happiness, disgust, anger, and fear. As for sex, there were statistically significant differences regarding the correct answers in the neutrality and disgust prosodies for males, while for females, there were differences in happiness and anger prosodies. Both sexes had more incredible difficulty in identifying prosody related to fear.

Conclusion:

the Hoosier Vocal Emotions Collection corpus allowed the identification of the emotional prosodies tested in the studied sample, with sexual dysmorphism to emotional prosodic identification being found.

Keywords:
Emotions; Voice Recognition; Speech, Language and Hearing Sciences

Introdução

A expressão da emoção é multimodal (face, voz e corpo) e precisa ser minimamente coerente entre os recursos utilizados para que a prosódia emocional possa ser compreendida, a depender de como o emissor interage com determinada situação11. Sznycer D, Cohen AS. Are emotions natural kinds after all? Rethinking the issue of response coherence. Evol. psychol. 2021;19(2):14747049211016009. https://doi.org/10.1177/14747049211016009 PMID: 34060370.
https://doi.org/10.1177/1474704921101600...
. Em relação à voz, tema deste estudo, as diferenças prosódicas emocionais permitem a identificação e discriminação de estados emocionais distintos. Vários aspectos podem ser analisados, como o pitch (a sensação subjetiva de frequência), a loudness (o senso pessoal de intensidade), a duração e a velocidade de fala. Além disso, também é possível distinguir entre vozes simuladas e não simuladas, desde que haja formação profissional adequada para esse fim. É plausível identificar o estado emocional do emissor na maioria das circunstâncias, aumentando, assim, o grau de relevância para sua interpretação em diversos campos do conhecimento22. César CPHAR, Pellicani AD, Farias IS, Reis LF, Santos L. The identification of voice in emotions: A narrative review of the literature. In: Pereira S, César CPHAR, Landy N, editors. Face Summit 2021. Porto: FeeLab; 2022. p. 51-67..

No entanto, as variações não envolvem apenas a laringe, mas sim todo trato vocal. Por exemplo, na prosódia da tristeza, há a tendência de menor abertura do trato vocal para vogais baixas, enquanto na da alegria, há significantemente menor comprimento do trato vocal quando comparado à raiva e à tristeza, na maioria das vezes33. Kim J, Toutios A, Lee S, Narayanan SS. Vocal tract shaping of emotional speech. Comput. Speech Lang. 2020;64:101100. https://doi.org/10.1016/j.csl.2020.101100 PMID: 32523241.
https://doi.org/10.1016/j.csl.2020.10110...
.

Alguns fatores podem prejudicar o reconhecimento da prosódia emocional, como as desordens auditiva44. Yeshoda K, Raveendran R, Konadath S. Perception of vocal emotional prosody in children with hearing impairment. Int. j. pediatr. otorhinolaryngol. 2020;137:110252. https://doi.org/10.1016/j.ijporl.2020.110252 PMID: 32896359.
https://doi.org/10.1016/j.ijporl.2020.11...
e neurológica55. Coulombe V, Happinessal M, Martel-Sauvageau V, Monetta L. Affective prosody disorders in adults with neurological conditions: A scoping review. International Int. J. Lang. Commun. Disord. 2023;58(6):1939-54. https://doi.org/10.1111/1460-6984.12909 PMID: 37212522.
https://doi.org/10.1111/1460-6984.12909...
, a presença de transtornos psíquicos66. Zhang M, Xu S, Chen Y, Lin Y, Ding H, Zhang Y. Recognition of affective prosody in autism spectrum conditions: A systematic review and meta-analysis. Autism. 2022;26(4):798-813. https://doi.org/10.1177/1362361321995725 PMID: 33722094.
https://doi.org/10.1177/1362361321995725...
, as inabilidades nas funções executivas77. Ikeda S. Overcoming lexical bias in the judgment of emotion in speech: Role of executive function and usefulness understanding in young children. J. genet. psychol. 2022;183(3):211-21. https://doi.org/10.1080/00221325.2022.2037499 PMID: 35132942.
https://doi.org/10.1080/00221325.2022.20...
, entre outros. Frente ao exposto, pesquisadores22. César CPHAR, Pellicani AD, Farias IS, Reis LF, Santos L. The identification of voice in emotions: A narrative review of the literature. In: Pereira S, César CPHAR, Landy N, editors. Face Summit 2021. Porto: FeeLab; 2022. p. 51-67. sugeriram atenção a esses aspectos na análise da prosódia emocional.

De acordo com a literatura88. Darcy I, Fontaine NMG. The Hoosier vocal emotions corpus: a validated set of north american English pseudowords for evaluating emotion processing. Behav. Res. Meth. 2020;52(2):901-17. https://doi.org/10.3758/s13428-019-01288-0 PMID: 31485866.
https://doi.org/10.3758/s13428-019-01288...
, a validação de corpus contendo estímulos prosódicos emocionais, como os do Hoosier Vocal Emotions Collection, podem facilitar a compreensão do uso e da identificação prosódica tanto por pesquisadores quanto por clínicos. Assim, a utilização de instrumentos devidamente calibrados possibilitaria a investigação do processamento das emoções em indivíduos com traços psicopáticos; com afasia; com esquizofrenia e outros transtornos mentais; em indivíduos bilíngues ou falantes não nativos do inglês; ou ainda, poderia ser utilizado no treinamento de algoritmos de reconhecimento automático de emoções, justificando a efetivação da presente pesquisa em amostra brasileira.

Desta forma, o objetivo da presente pesquisa foi verificar se o corpus do Hoosier Vocal Emotions Collection permite a identificação das prosódias emocionais (alegria, tristeza, raiva, aversão, medo e neutro) em adultos brasileiros, além de vislumbrar se a respectiva identificação é igual entre os sexos.

Métodos

Esta pesquisa foi iniciada após aprovação no Comitê de Ética em Pesquisa (CEP) da Universidade Federal de Sergipe, Brasil, sob CAAE nº 59618322.0.0000.5546 e parecer nº 5.539.794, seguindo as recomendações éticas de pesquisa descritas pela Resolução 466/12 do Conselho Nacional de Saúde.

Trata-se de um estudo transversal, descritivo e observacional, com amostra configurada por conveniência. A pesquisa foi realizada em uma universidade brasileira, em sala climatizada e utilizada em dias e horários previamente estabelecidos com os participantes da pesquisa. A amostra foi composta por adultos brasileiros, hígidos, que não apresentavam histórico de desordem neurológica, de acordo com os seus próprios relatos.

Visando garantir a liberdade de participação e a integridade do participante da pesquisa, foi realizada a leitura da carta explicativa e do Termo de Consentimento Livre e Esclarecido, com posterior assinatura, garantindo o direito à privacidade, ao sigilo, à confidencialidade e à anonimidade dos dados pessoais, o direito à obtenção de informações sobre os resultados dos testes aplicados, bem como a indenização frente a indícios de dano, durante e após o encerramento da pesquisa.

O recrutamento dos participantes foi realizado por meio de convite oral, totalizando 60 sujeitos distribuídos igualitariamente entre os sexos. As idades variaram entre 18 e 42 anos (média: 23,15±5,17), sendo 46 adultos jovens entre 18-24 anos e 14 adultos entre 25-42 anos. Em relação à escolaridade, apresentaram entre oito e 25 anos de estudo (média: 16,15±4,06). De acordo com a literatura99. Kerr MS, Pagliarin KC, Mineiro A, Ferré P, Joanette Y, Fonseca RP. Montreal Communication Evaluation Battery - Portuguese version: Age and education effects. CoDAS. 2015;27(6):550-6. https://doi.org/10.1590/2317-1782/20152015029 PMID: 26691619.
https://doi.org/10.1590/2317-1782/201520...
, pode haver efeitos da idade e da escolaridade para a interpretação dos resultados, justificando a escolha por adultos alfabetizados.

Constituíram os critérios de inclusão: ensino fundamental completo, idade entre 18 e 42 anos, rastreio negativo para perda auditiva, para dificuldades prosódicas (compreensão e produção) e para alterações cognitivas. Constituíram os critérios de exclusão: histórico positivo quanto ao uso de drogas ou medicamentos que atuassem no sistema nervoso central, desordens neurológicas, psíquicas e mentais, bem como presença de dificuldades visuais (exceto as devidamente corrigidas).

Em relação aos procedimentos da pesquisa, os participantes realizaram:

  • Anamnese para serem coletadas informações sobre os dados de identificação, os socioeconômicos e os relativos às queixas auditivas, neurológicas e de compreensão porventura existentes.

  • O Mini-exame do Estado Mental (MEEM)1010. Folstein MF, Folstein SE, McHugh PR. Mini-Mental State: A practical method for grading the cognitive state of patients for clinician. J. Psychiatr. Res. 1975;12:189-98. https://doi.org/10.1016/0022-3956(75)90026-6 PMID: 1202204.
    https://doi.org/10.1016/0022-3956(75)900...
    , traduzido e validado para o português (BR)1111. Bertolucci PHF, Brucki SMD, Campacci SR, Juliano Y. O mini-exame do estado mental em uma população geral: impacto da escolaridade. Arq. Neuro-Psiquiatr. 1994;52(1):1-7. https://doi.org/10.1590/S0004-282X1994000100001 PMID: 1202204.
    https://doi.org/10.1590/S0004-282X199400...
    , foi utilizado para evitar a inclusão de pessoas com possibilidades de comprometimento cognitivo, o que poderia dificultar a compreensão da prova. A média do Mini-exame do Estado Mental foi de 29,03±0,89, compatível com o nível instrucional dos participantes.

  • Parte da adaptação do "Protocole Montréal d'Évaluation de la Communication - Protocole MEC" (Bateria Montréal de Avaliação da Comunicação - Bateria MAC), validada para o português brasileiro1212. Fonseca RP, Parente MAMP, Côté H, Joanette Y. Adaptation process to Brazilian Portuguese of the Montreal communication evaluation battery: MAC battery. Psicol. Reflex. Crit. 2007;20:259-67. https://doi.org/10.1590/S0102-79722007000200012
    https://doi.org/10.1590/S0102-7972200700...
    . A referida bateria é composta de nove provas, como o questionário sobre consciência de dificuldades; prova dos discursos conversacional e narrativo; de interpretação de metáforas; de evocação lexical; das prosódias linguística e emocional; da interpretação de atos de fala indiretos e do julgamento semântico. Como triagem de dificuldades prosódicas, apenas as provas de discurso conversacional (por conversa espontânea com temas possíveis: família, trabalho, lazer e notícias atuais, por quatro minutos) e habilidades prosódicas linguísticas e emocionais (compreensão e produção) foram aplicadas. O participante deveria apresentar os aspectos pragmáticos, léxico-semânticos, discursivos e prosódicos intactos para poder participar da pesquisa. Foram incluídos na pesquisa aqueles que obtiveram pontuação adequada para faixa etária e anos de escolaridade, de acordo com o proposto pelo instrumento de avaliação1212. Fonseca RP, Parente MAMP, Côté H, Joanette Y. Adaptation process to Brazilian Portuguese of the Montreal communication evaluation battery: MAC battery. Psicol. Reflex. Crit. 2007;20:259-67. https://doi.org/10.1590/S0102-79722007000200012
    https://doi.org/10.1590/S0102-7972200700...
    . A média de acertos relativos à prosódia emocional da bateria Montreal foi 9,4±1,69.

  • Avaliação do reconhecimento da prosódia emocional: o corpus do Hoosier Vocal Emotions Collection é composto por 73 pseudopalavras dissilábicas pronunciadas em inglês por duas atrizes (AG e KM, conforme descrito na pesquisa original), testadas e validadas pelas autoras da respectiva coleção88. Darcy I, Fontaine NMG. The Hoosier vocal emotions corpus: a validated set of north american English pseudowords for evaluating emotion processing. Behav. Res. Meth. 2020;52(2):901-17. https://doi.org/10.3758/s13428-019-01288-0 PMID: 31485866.
    https://doi.org/10.3758/s13428-019-01288...
    . As pseudopalavras foram balanceadas foneticamente pelo Alfabeto Fonético Internacional (IPA). Cada pseudopalavra foi emitida pelas atrizes americanas de seis formas diferentes (cada pseudopalavra foi emitida duas vezes por cada atriz): com alegria, tristeza, medo, raiva, aversão e neutro, totalizando 1.763 arquivos de áudio divididos em quatro listas (as 1 e 2 foram produzidas por uma atriz, com 438 sons cada e 3 e 4 por outra, sendo que a lista 3 apresenta 443 e, a lista 4, 444 sons). A fim de utilizar as pseudopalavras com maior número de acertos por emoção testada proferidas pelas atrizes e diminuir o tempo de aplicação, foram selecionadas, dessas listas, doze pseudopalavras para as prosódias de alegria, tristeza, medo, raiva e aversão (totalizando 50 pseudopalavras) e treze com a prosódia neutra, de forma que o total de pseudopalavras testadas para a amostra brasileira também foi composto de 73. Para tanto, o critério de seleção das pseudopalavras foi o maior percentual de acertos a partir dos resultados da pesquisa original88. Darcy I, Fontaine NMG. The Hoosier vocal emotions corpus: a validated set of north american English pseudowords for evaluating emotion processing. Behav. Res. Meth. 2020;52(2):901-17. https://doi.org/10.3758/s13428-019-01288-0 PMID: 31485866.
    https://doi.org/10.3758/s13428-019-01288...
    , como pode ser visualizado na Tabela 1. Destarte, as listas foram oferecidas de forma randomizada (randomização efetivada com o uso da planilha Excel do pacote Microsoft Office®) entre os participantes, sendo que a cada 50 estímulos houve uma pausa a fim de não causar cansaço, evitando, assim, possíveis erros. A lista final utilizada na pesquisa encontra-se detalhada no Quadro 1. As respostas foram anotadas em uma folha com seis gabaritos de resposta. A partir das respostas obtidas, foram analisadas as taxas de precisão de identificação das emoções. Cabe salientar que as autoras permitiram o uso da coleção prosódica de pseudopalavras.

A apresentação das pseudopalavras previamente selecionadas foi realizada em dia e horário pré-agendados com os participantes, em sala climatizada, por meio do software Audacity®, fones de ouvido AKG K72, computador Dell Intel core i5, sendo que houve instrução prévia para que o participante prestasse atenção à pseudopalavra oferecida e, posteriormente, assinalasse, em folha própria, qual a prosódia emocional que era correspondente à proferida. Houve o acréscimo de duas sentenças à cada pseudopalavra, efetivada por fonoaudióloga nativa brasileira, sem alterações na fala, a saber: “Eu digo” e “Eu digo novamente”. Assim, cada pseudopalavra foi apresentada duas vezes logo a seguir da frase emitida em português. Por exemplo: “Eu digo <pseudopalavra de uma determinada prosódia emocional” e “Eu digo novamente <a mesma pseudopalavra emitida anteriormente”. Para a inserção desses trechos em português (Brasil) às pseudopalavras do Hoosier Vocal Emotions Collection, foi utilizado o software Audacity®.

Tabela 1
Seleção de 73 pseudopalavras do corpus Hoosier Vocal Emotional Collection para as emissões de cada atriz com a média de acertos e o desvio padrão por emoção testada
Quadro 1
Lista das 73 pseudopalavras selecionadas, por emoção, relacionadas às atrizes americanas, utilizadas na presente pesquisa

Ao final da coleta, os dados foram tabulados em planilhas no Microsoft Office Excel 2013 e a análise dos resultados foi realizada pela estatística descritiva, por meio da mensuração das medidas de frequência, média e desvio padrão, bem como pela estatística inferencial pelo uso do teste Qui-quadrado, considerando-se o nível de significância de 5%, utilizando-se o software JAMOVI.

Resultados

De forma geral, os acertos, com toda a amostra pesquisada e todas as prosódias do Hoosier Vocal Emotions Collection, corresponderam a 43,63%. Os resultados obtidos por prosódia emocional encontram-se disponíveis na Tabela 2.

Tabela 2
Quantidade e percentual de acertos dos 60 participantes (30 para cada corpus) para as prosódias testadas por meio de pseudopalavras do Hoosier Vocal Emotional Collection

Quando comparadas as respostas em relação aos sexos, foram observadas diferenças estatisticamente significantes para as pseudopalavras que expressavam as emoções de neutralidade (p=0,015), com maiores acertos para indivíduos do sexo masculino (média de acertos=50,76%), de aversão (p=0,042), bem como de alegria (p=<0,001), com maiores acertos para indivíduos do sexo feminino (média de acertos=49,72%) e de raiva (p= 0,002), como pode ser observado na Tabela 3. Não foram constatadas diferenças significantes em relação ao sexo para as emoções de tristeza ou medo.

Tabela 3
Quantidade e percentual de erros e acertos masculinos e femininos para as prosódias emocionais testadas por meio de pseudopalavras do Hoosier Vocal Emotional Collection

Discussão

O objetivo da presente pesquisa foi verificar se o corpus do Hoosier Vocal Emotions Collection permite a identificação de diferentes prosódias emocionais (alegria, tristeza, raiva, aversão, medo e neutro) em adultos brasileiros, tendo em vista que, se possível, os resultados podem ser comparados com outras pesquisas internacionais, com o instrumento já validado. De forma geral, as prosódias testadas foram identificadas com precisão de 43,63%, similar ao obtido pelas autoras originais88. Darcy I, Fontaine NMG. The Hoosier vocal emotions corpus: a validated set of north american English pseudowords for evaluating emotion processing. Behav. Res. Meth. 2020;52(2):901-17. https://doi.org/10.3758/s13428-019-01288-0 PMID: 31485866.
https://doi.org/10.3758/s13428-019-01288...
, cujo percentual foi de 45%. Cabe ressaltar que neste estudo não foi aplicado o corpus na íntegra, sendo selecionadas as pseudopalavras com maiores percentuais de acertos da coleção de pseudopalavras88. Darcy I, Fontaine NMG. The Hoosier vocal emotions corpus: a validated set of north american English pseudowords for evaluating emotion processing. Behav. Res. Meth. 2020;52(2):901-17. https://doi.org/10.3758/s13428-019-01288-0 PMID: 31485866.
https://doi.org/10.3758/s13428-019-01288...
. Essa escolha deu-se pelo cansaço e dificuldades relatadas pelos participantes, uma vez que as prosódias do Hoosier Vocal são emitidas com intensidade prosódica média/normal, diferente da prosódia da bateria MAC1212. Fonseca RP, Parente MAMP, Côté H, Joanette Y. Adaptation process to Brazilian Portuguese of the Montreal communication evaluation battery: MAC battery. Psicol. Reflex. Crit. 2007;20:259-67. https://doi.org/10.1590/S0102-79722007000200012
https://doi.org/10.1590/S0102-7972200700...
, que pode ser considerada como forte; e para agilidade no procedimento (o corpus original do Hoosier Vocal Emotions Collection apresenta 1.763 arquivos). No entanto, foram utilizadas as 73 pseudopalavras para cada corpus.

As prosódias que obtiveram acertos acima da média foram: neutro, tristeza, alegria e aversão. Destas prosódias, apenas neutro e tristeza apresentaram resultados similares com os da literatura88. Darcy I, Fontaine NMG. The Hoosier vocal emotions corpus: a validated set of north american English pseudowords for evaluating emotion processing. Behav. Res. Meth. 2020;52(2):901-17. https://doi.org/10.3758/s13428-019-01288-0 PMID: 31485866.
https://doi.org/10.3758/s13428-019-01288...
. Raiva e medo apresentaram-se abaixo da média. No estudo de Darcy e Fontaine88. Darcy I, Fontaine NMG. The Hoosier vocal emotions corpus: a validated set of north american English pseudowords for evaluating emotion processing. Behav. Res. Meth. 2020;52(2):901-17. https://doi.org/10.3758/s13428-019-01288-0 PMID: 31485866.
https://doi.org/10.3758/s13428-019-01288...
, a prosódia emocional da raiva foi a que apresentou menores índices de identificação e a prosódia relacionada ao medo esteve entre as prosódias com bons percentuais de acerto. Um estudo1313. Gruber T, Debracque C, Ceravolo L, Igloi K, Bosch BM, Frühholz S et al. Human discrimination and categorization of emotions in voices: A functional near-infrared spectroscopy (fNIRS) study. Front. Neurosci. 2020;14:570. https://doi.org/10.3389/fnins.2020.00570.eCollection2020 PMID: 32581695.
https://doi.org/10.3389/fnins.2020.00570...
utilizou a espectroscopia funcional em infravermelho próximo (Functional Near-Infrared Spectroscopy - fNIRS) com três pseudopalavras dissilábicas (“minad,” “lagod,” “namil”) emitidas por quatro sujeitos (dois de cada sexo) com diferentes prosódias (alegria, tristeza, medo, raiva e neutro). Para tanto, participaram do estudo 28 voluntários saudáveis, com média de idade de 26,44±4,7 anos. Os autores constataram que os participantes foram mais rápidos em discriminar do que em nomear as prosódias testadas e em processar o conteúdo linguístico do que a prosódia emocional, principalmente nas prosódias de raiva, medo e neutro. Houve modulação das modificações da oxihemoglobina no giro frontal inferior dependendo da condição, da tarefa, da prosódia emocional testada e do hemisfério cerebral. Para a prosódia do medo, verificaram o envolvimento do hemisfério direito e, para a raiva, de ambos os hemisférios. Frente ao exposto, pode-se inferir que a atividade cognitiva para a identificação das prosódias de medo e raiva possam ser justificadas pelas tarefas implicarem em maior carga neuronal, acarretando em maiores dificuldades para suas identificações no presente estudo. Além do exposto, as diferenças podem também ser justificadas pelo uso prosódico diferenciado entre diferentes países, línguas, sexos e indivíduos1414. van Rijn P, Larrouy-Maestri P. Modelling individual and cross-cultural variation in the mapping of emotions to speech prosody. Nat. Hum. Behav. 2023;7(3):386-96. https://doi.org/10.1038/s41562-022-01505-5 PMID: 36646838.
https://doi.org/10.1038/s41562-022-01505...
.

Uma consideração importante a ser feita diz respeito às diferenças obtidas na identificação prosódica da bateria MAC (94% de acertos) comparada à das pseudopalavras do Hoosier Vocal Emotions Collection (43,63%) selecionadas neste estudo. Na bateria MAC são utilizadas sentenças com forte carga prosódica enquanto, no presente estudo, foram utilizadas pseudopalavras com carga média/normal, tornando a tarefa da identificação muito mais difícil, como aponta a literatura88. Darcy I, Fontaine NMG. The Hoosier vocal emotions corpus: a validated set of north american English pseudowords for evaluating emotion processing. Behav. Res. Meth. 2020;52(2):901-17. https://doi.org/10.3758/s13428-019-01288-0 PMID: 31485866.
https://doi.org/10.3758/s13428-019-01288...
. Além disso, a literatura1515. Morningstar M, Gilbert AC, Burdo J, Leis M, Dirks MA. Recognition of vocal socioemotional expressions at varying levels of emotional intensity. Emotion. 2021;21(7):1570-5. https://doi.org/10.1037/emo0001024 PMID: 34570558.
https://doi.org/10.1037/emo0001024...
ratifica o exposto, tendo em vista que a precisão dos ouvintes em identificar uma determinada prosódia emocional aumenta de acordo com sua intensidade emocional, como, por exemplo, a raiva. Assim, quando essa emoção é transmitida de forma média ou com fraca carga emocional, há maior probabilidade de ser mal interpretada1515. Morningstar M, Gilbert AC, Burdo J, Leis M, Dirks MA. Recognition of vocal socioemotional expressions at varying levels of emotional intensity. Emotion. 2021;21(7):1570-5. https://doi.org/10.1037/emo0001024 PMID: 34570558.
https://doi.org/10.1037/emo0001024...
.

Não foram encontradas diferenças estatisticamente significantes para a identificação das pseudopalavras em relação ao corpus apresentado (nomeadamente descrito pelas autoras originais como corpus atriz AG e corpus KM), com exceção da prosódia medo, em que houve maior quantidade de acertos no corpus da atriz KM. Essa diferença não ocorreu no corpus original e deve ter ocorrido em virtude da seleção prévia utilizada no presente estudo. A partir dos resultados obtidos, sugere-se que sejam utilizadas as pseudopalavras com maiores percentuais de acertos abaixo selecionadas para triar ou avaliar as prosódias relativas à alegria, tristeza, medo, aversão, raiva e neutra (Quadro 2 - material suplementar), ampliando, desta forma, as opções atuais de avaliação, uma vez que no Brasil só há a adaptação e validação da bateria MAC com três prosódias: alegria, raiva e tristeza. Pesquisas futuras poderão esclarecer a utilização das pseudopalavras do Hoosier Vocal Emotions Collection em diferentes faixas etárias e quadros clínicos.

Quadro 2
Lista sugerida de pseudopalavras para triagem/avaliação da prosódia emocional em brasileiros jovens e adultos, com a indicação do arquivo a ser utilizado

Algumas prosódias são consideradas como fortes ativadoras emocionais (como a raiva, o medo e a alegria) enquanto outras manifestam fraco grau de ativação (como a tristeza, o tédio e a ternura), sendo que, naquelas em que há forte ativação, as características acústicas são de aumento da frequência fundamental, do pitch e da velocidade da fala. Já nas com fraca ativação emocional, ocorre o oposto1616. Scherer KR. Vocal communication of emotion: A review of research paradigms. Speech Commun. 2003;40(1-2):227-56. https://doi.org/10.1016/S0167-6393(02)00084-5
https://doi.org/10.1016/S0167-6393(02)00...
, cabendo investigar se há diferenças entre os sexos nessa identificação.

Nesse sentido, no presente estudo foram encontradas diferenças entre os sexos em relação à identificação prosódica de alegria e aversão (maiores acertos para mulheres) e neutralidade (homens), não sendo possível comparar os resultados obtidos com o estudo original88. Darcy I, Fontaine NMG. The Hoosier vocal emotions corpus: a validated set of north american English pseudowords for evaluating emotion processing. Behav. Res. Meth. 2020;52(2):901-17. https://doi.org/10.3758/s13428-019-01288-0 PMID: 31485866.
https://doi.org/10.3758/s13428-019-01288...
, uma vez que essa análise não foi procedida. No entanto, pesquisadores1717. Ertürk A, Gürses E, Kulak Kayikci ME. Sex related differences in the perception and production of emotional prosody in adults. Psychol. Res. 2024;88(2):449-57. https://doi.org/10.1007/s00426-023-01865-1 PMID: 37542581.
https://doi.org/10.1007/s00426-023-01865...
não encontraram diferenças na identificação da prosódia emocional em relação aos sexos. Já um estudo de revisão de literatura1818. Lin Y, Ding H, Zhang Y. Unisensory and multisensory stroop effects modulate gender differences in verbal and nonverbal emotion perception. J. Speech Lang. Hear. Res. 2021;64(11):4439-57. https://doi.org/10.1044/2021_JSLHR-20-00338 PMID: 34469179.
https://doi.org/10.1044/2021_JSLHR-20-00...
evidenciou diferenças na identificação prosódica emocional entre os sexos, e, segundo os autores, as diferenças nesse sentido podem mostrar que o processamento de informações entre homens e mulheres ocorrem de maneira diferente tanto pelo processamento temporal mais rápido feminino quanto pelo papel social desempenhado pelas mulheres, na maioria das culturas. Um estudo de revisão sistemática com metanálise1919. Filkowski MM, Olsen RM, Duda B, Wanger TJ, Sabatinelli D. Sex differences in emotional perception: Meta analysis of divergent activation. Neuroimage. 2017;147:925-33. https://doi.org/10.1016/j.neuroimage.2016.12.016 PMID: 27988321.
https://doi.org/10.1016/j.neuroimage.201...
ratificou o dismorfismo sexual relacionado à reatividade emocional na ativação de diferentes áreas cerebrais, concluindo ser de importância considerar o sexo em pesquisas que envolvam a emoção.

A importância da triagem e da avaliação da prosódia diz respeito à possibilidade do diagnóstico precoce de distúrbios cognitivos leves2020. Themistocleous C, Eckerström M, Kokkinakis D. Identification of mild cognitive impairment from speech in Swedish using deep sequential neural networks. Front. Neurol. 2018;9:975. https://doi.org/10.3389/fneur.2018.00975 PMID: 30498472.
https://doi.org/10.3389/fneur.2018.00975...
,2121. Gosztolya G, Vincze V, Tóth L, Pákáski M, Kálmán J, Hoffmann I. Identifying mild cognitive impairment and mild Alzheimer's disease based on spontaneous speech using ASR and linguistic features. Comput. Speech Lang. 2019;53:181-97. https://doi.org/10.1016/j.csl.2018.07.007
https://doi.org/10.1016/j.csl.2018.07.00...
, permitindo a intervenção precoce nesses quadros clínicos. No transtorno do espectro autista (TEA), pode haver tanto dificuldades de reconhecimento e identificação quanto do uso da prosódia emocional66. Zhang M, Xu S, Chen Y, Lin Y, Ding H, Zhang Y. Recognition of affective prosody in autism spectrum conditions: A systematic review and meta-analysis. Autism. 2022;26(4):798-813. https://doi.org/10.1177/1362361321995725 PMID: 33722094.
https://doi.org/10.1177/1362361321995725...
,2222. Zuanetti PA, Silva K, Pontes-Fernandes ÂC, Dornelas R, Fukuda MTH. Characteristics of the emissive prosody of children with Autism Spectrum Disorder. Rev. CEFAC. 2018;20(5):565-72. https://doi.org/10.1590/1982-021620182051718
https://doi.org/10.1590/1982-02162018205...
, a depender do número de opções de respostas oferecidas, da emoção testada e das habilidades verbais e cognitivas do paciente66. Zhang M, Xu S, Chen Y, Lin Y, Ding H, Zhang Y. Recognition of affective prosody in autism spectrum conditions: A systematic review and meta-analysis. Autism. 2022;26(4):798-813. https://doi.org/10.1177/1362361321995725 PMID: 33722094.
https://doi.org/10.1177/1362361321995725...
. Nas psicopatias tais dificuldades também podem ocorrer, sendo possível até mesmo constatá-las em crianças com alto risco de desenvolver comportamento criminoso futuro2323. Van Zonneveld L, De Sonneville L, Van Goozen S, Swaab H. Recognition of facial emotion and affective prosody in children at high risk of criminal behavior. J. Int. Neuropsychol. Soc. 2019;25(1):57-64. https://doi.org/10.1017/S1355617718000796 PMID: 30394247.
https://doi.org/10.1017/S135561771800079...
. Além disso, alterações na compreensão e na produção prosódica podem evidenciar uma desordem de ordem neurológica que necessita ser investigada55. Coulombe V, Happinessal M, Martel-Sauvageau V, Monetta L. Affective prosody disorders in adults with neurological conditions: A scoping review. International Int. J. Lang. Commun. Disord. 2023;58(6):1939-54. https://doi.org/10.1111/1460-6984.12909 PMID: 37212522.
https://doi.org/10.1111/1460-6984.12909...
, justificando o esforço de pesquisas na área, principalmente pela quantidade insuficiente de materiais validados para o uso no Brasil.

Como citado por Darcy e Fontaine, a limitação desta pesquisa recai na produção de prosódias emocionais proferidas exclusivamente por duas pessoas do sexo feminino, impedindo a comparação da sua identificação em relação à produção prosódica emitida por pessoas do sexo masculino, sendo esta uma lacuna para futuras investigações, embora haja relato na literatura de que o reconhecimento prosódico seja facilitado quando o emissor é do sexo feminino2424. Eskritt M, Zupan B. Emotion perception from vocal cues: Testing the influence of emotion intensity and sex on in-group advantage. Can. J. Exp. Psychol. 2023;77(3):202-11. https://doi.org/10.1037/cep0000310 PMID: 37535514.
https://doi.org/10.1037/cep0000310...
.

Como sugestões para novas pesquisas, sugerem-se a aplicação do corpus sintetizado com os melhores percentuais de acertos (tanto da atriz AG quanto da KM) em diferentes faixas etárias como instrumento para obtenção de escores de acertos e, a exemplo de pesquisa2525. Martzoukou M, Nasios G, Kosmidis MH, Papadopoulou D. Aging and the perception of affective and linguistic prosody. J. Psycholinguist Res. 2022;51(5):1001-21. https://doi.org/10.1007/s10936-022-09875-7 PMID: 35441951.
https://doi.org/10.1007/s10936-022-09875...
sobre as diferenças entre o reconhecimento prosódico emocional de jovens e idosos, verificar se as pontuações divergem entre as faixas etárias; aplicar o corpus sintético em diferentes afecções como distúrbios cognitivos leves, doenças de Parkinson e Alzheimer, em quadros depressivos e nas psicopatias, por exemplo.

Conclusão

A partir dos resultados obtidos, foi possível verificar que o corpus do Hoosier Vocal Emotions Collection permitiu a identificação das prosódias emocionais (alegria, tristeza, raiva, aversão, medo e neutro) na amostra do estudo. Além disso, dentre as prosódias emocionais testadas, as de maior facilidade de identificação, em ordem decrescente de acertos, foram: neutralidade, tristeza, alegria, nojo, raiva e medo. Em relação aos sexos, foram encontradas diferenças estatisticamente significantes na identificação da neutralidade e da aversão para o sexo masculino e da alegria e da raiva para o feminino, evidenciando dismorfismo sexual em relação à identificação prosódica emocional.

Agradecimentos

Sinceros agradecimentos às pesquisadoras e professoras Isabelle Darcy (Indiana University, USA) e Nathalie Fontaine (Université de Montréal, Canada) pela autorização do uso do Hoosier Vocal Emotions Collection.

REFERENCES

  • 1
    Sznycer D, Cohen AS. Are emotions natural kinds after all? Rethinking the issue of response coherence. Evol. psychol. 2021;19(2):14747049211016009. https://doi.org/10.1177/14747049211016009 PMID: 34060370.
    » https://doi.org/10.1177/14747049211016009
  • 2
    César CPHAR, Pellicani AD, Farias IS, Reis LF, Santos L. The identification of voice in emotions: A narrative review of the literature. In: Pereira S, César CPHAR, Landy N, editors. Face Summit 2021. Porto: FeeLab; 2022. p. 51-67.
  • 3
    Kim J, Toutios A, Lee S, Narayanan SS. Vocal tract shaping of emotional speech. Comput. Speech Lang. 2020;64:101100. https://doi.org/10.1016/j.csl.2020.101100 PMID: 32523241.
    » https://doi.org/10.1016/j.csl.2020.101100
  • 4
    Yeshoda K, Raveendran R, Konadath S. Perception of vocal emotional prosody in children with hearing impairment. Int. j. pediatr. otorhinolaryngol. 2020;137:110252. https://doi.org/10.1016/j.ijporl.2020.110252 PMID: 32896359.
    » https://doi.org/10.1016/j.ijporl.2020.110252
  • 5
    Coulombe V, Happinessal M, Martel-Sauvageau V, Monetta L. Affective prosody disorders in adults with neurological conditions: A scoping review. International Int. J. Lang. Commun. Disord. 2023;58(6):1939-54. https://doi.org/10.1111/1460-6984.12909 PMID: 37212522.
    » https://doi.org/10.1111/1460-6984.12909
  • 6
    Zhang M, Xu S, Chen Y, Lin Y, Ding H, Zhang Y. Recognition of affective prosody in autism spectrum conditions: A systematic review and meta-analysis. Autism. 2022;26(4):798-813. https://doi.org/10.1177/1362361321995725 PMID: 33722094.
    » https://doi.org/10.1177/1362361321995725
  • 7
    Ikeda S. Overcoming lexical bias in the judgment of emotion in speech: Role of executive function and usefulness understanding in young children. J. genet. psychol. 2022;183(3):211-21. https://doi.org/10.1080/00221325.2022.2037499 PMID: 35132942.
    » https://doi.org/10.1080/00221325.2022.2037499
  • 8
    Darcy I, Fontaine NMG. The Hoosier vocal emotions corpus: a validated set of north american English pseudowords for evaluating emotion processing. Behav. Res. Meth. 2020;52(2):901-17. https://doi.org/10.3758/s13428-019-01288-0 PMID: 31485866.
    » https://doi.org/10.3758/s13428-019-01288-0
  • 9
    Kerr MS, Pagliarin KC, Mineiro A, Ferré P, Joanette Y, Fonseca RP. Montreal Communication Evaluation Battery - Portuguese version: Age and education effects. CoDAS. 2015;27(6):550-6. https://doi.org/10.1590/2317-1782/20152015029 PMID: 26691619.
    » https://doi.org/10.1590/2317-1782/20152015029
  • 10
    Folstein MF, Folstein SE, McHugh PR. Mini-Mental State: A practical method for grading the cognitive state of patients for clinician. J. Psychiatr. Res. 1975;12:189-98. https://doi.org/10.1016/0022-3956(75)90026-6 PMID: 1202204.
    » https://doi.org/10.1016/0022-3956(75)90026-6
  • 11
    Bertolucci PHF, Brucki SMD, Campacci SR, Juliano Y. O mini-exame do estado mental em uma população geral: impacto da escolaridade. Arq. Neuro-Psiquiatr. 1994;52(1):1-7. https://doi.org/10.1590/S0004-282X1994000100001 PMID: 1202204.
    » https://doi.org/10.1590/S0004-282X1994000100001
  • 12
    Fonseca RP, Parente MAMP, Côté H, Joanette Y. Adaptation process to Brazilian Portuguese of the Montreal communication evaluation battery: MAC battery. Psicol. Reflex. Crit. 2007;20:259-67. https://doi.org/10.1590/S0102-79722007000200012
    » https://doi.org/10.1590/S0102-79722007000200012
  • 13
    Gruber T, Debracque C, Ceravolo L, Igloi K, Bosch BM, Frühholz S et al. Human discrimination and categorization of emotions in voices: A functional near-infrared spectroscopy (fNIRS) study. Front. Neurosci. 2020;14:570. https://doi.org/10.3389/fnins.2020.00570.eCollection2020 PMID: 32581695.
    » https://doi.org/10.3389/fnins.2020.00570.eCollection2020
  • 14
    van Rijn P, Larrouy-Maestri P. Modelling individual and cross-cultural variation in the mapping of emotions to speech prosody. Nat. Hum. Behav. 2023;7(3):386-96. https://doi.org/10.1038/s41562-022-01505-5 PMID: 36646838.
    » https://doi.org/10.1038/s41562-022-01505-5
  • 15
    Morningstar M, Gilbert AC, Burdo J, Leis M, Dirks MA. Recognition of vocal socioemotional expressions at varying levels of emotional intensity. Emotion. 2021;21(7):1570-5. https://doi.org/10.1037/emo0001024 PMID: 34570558.
    » https://doi.org/10.1037/emo0001024
  • 16
    Scherer KR. Vocal communication of emotion: A review of research paradigms. Speech Commun. 2003;40(1-2):227-56. https://doi.org/10.1016/S0167-6393(02)00084-5
    » https://doi.org/10.1016/S0167-6393(02)00084-5
  • 17
    Ertürk A, Gürses E, Kulak Kayikci ME. Sex related differences in the perception and production of emotional prosody in adults. Psychol. Res. 2024;88(2):449-57. https://doi.org/10.1007/s00426-023-01865-1 PMID: 37542581.
    » https://doi.org/10.1007/s00426-023-01865-1
  • 18
    Lin Y, Ding H, Zhang Y. Unisensory and multisensory stroop effects modulate gender differences in verbal and nonverbal emotion perception. J. Speech Lang. Hear. Res. 2021;64(11):4439-57. https://doi.org/10.1044/2021_JSLHR-20-00338 PMID: 34469179.
    » https://doi.org/10.1044/2021_JSLHR-20-00338
  • 19
    Filkowski MM, Olsen RM, Duda B, Wanger TJ, Sabatinelli D. Sex differences in emotional perception: Meta analysis of divergent activation. Neuroimage. 2017;147:925-33. https://doi.org/10.1016/j.neuroimage.2016.12.016 PMID: 27988321.
    » https://doi.org/10.1016/j.neuroimage.2016.12.016
  • 20
    Themistocleous C, Eckerström M, Kokkinakis D. Identification of mild cognitive impairment from speech in Swedish using deep sequential neural networks. Front. Neurol. 2018;9:975. https://doi.org/10.3389/fneur.2018.00975 PMID: 30498472.
    » https://doi.org/10.3389/fneur.2018.00975
  • 21
    Gosztolya G, Vincze V, Tóth L, Pákáski M, Kálmán J, Hoffmann I. Identifying mild cognitive impairment and mild Alzheimer's disease based on spontaneous speech using ASR and linguistic features. Comput. Speech Lang. 2019;53:181-97. https://doi.org/10.1016/j.csl.2018.07.007
    » https://doi.org/10.1016/j.csl.2018.07.007
  • 22
    Zuanetti PA, Silva K, Pontes-Fernandes ÂC, Dornelas R, Fukuda MTH. Characteristics of the emissive prosody of children with Autism Spectrum Disorder. Rev. CEFAC. 2018;20(5):565-72. https://doi.org/10.1590/1982-021620182051718
    » https://doi.org/10.1590/1982-021620182051718
  • 23
    Van Zonneveld L, De Sonneville L, Van Goozen S, Swaab H. Recognition of facial emotion and affective prosody in children at high risk of criminal behavior. J. Int. Neuropsychol. Soc. 2019;25(1):57-64. https://doi.org/10.1017/S1355617718000796 PMID: 30394247.
    » https://doi.org/10.1017/S1355617718000796
  • 24
    Eskritt M, Zupan B. Emotion perception from vocal cues: Testing the influence of emotion intensity and sex on in-group advantage. Can. J. Exp. Psychol. 2023;77(3):202-11. https://doi.org/10.1037/cep0000310 PMID: 37535514.
    » https://doi.org/10.1037/cep0000310
  • 25
    Martzoukou M, Nasios G, Kosmidis MH, Papadopoulou D. Aging and the perception of affective and linguistic prosody. J. Psycholinguist Res. 2022;51(5):1001-21. https://doi.org/10.1007/s10936-022-09875-7 PMID: 35441951.
    » https://doi.org/10.1007/s10936-022-09875-7
  • Estudo realizado na Universidade Federal de Sergipe, São Cristóvão, Sergipe, Brasil.
  • Fonte de financiamento: Bolsa do Programa Institucional de Bolsas de Iniciação Cientifica (PIBIC) com verba do Conselho Nacional de Pesquisa (Pibic CNPq). Projeto Número PIA11179-2022
  • Declaração de compartilhamento de dados: Os dados individuais dos participantes desidentificados poderão ser compartilhados, mediante solicitação ao autor de correspondência por correio eletrônico. No entanto, os que utilizarem os dados compartilhados devem se comprometer a citar tanto os autores originais do Hoosier Vocal Emotions Collection quanto os do presente estudo.

Disponibilidade de dados

Declaração de compartilhamento de dados: Os dados individuais dos participantes desidentificados poderão ser compartilhados, mediante solicitação ao autor de correspondência por correio eletrônico. No entanto, os que utilizarem os dados compartilhados devem se comprometer a citar tanto os autores originais do Hoosier Vocal Emotions Collection quanto os do presente estudo.

Datas de Publicação

  • Publicação nesta coleção
    26 Ago 2024
  • Data do Fascículo
    2024

Histórico

  • Recebido
    08 Abr 2024
  • Revisado
    24 Maio 2024
  • Aceito
    05 Jun 2024
ABRAMO Associação Brasileira de Motricidade Orofacial Rua Uruguaiana, 516, Cep 13026-001 Campinas SP Brasil, Tel.: +55 19 3254-0342 - São Paulo - SP - Brazil
E-mail: revistacefac@cefac.br