Sexta, 22 Novembro 2024

A tecnologia já é capaz de investigar nossos hábitos mais íntimos, acompanhar o funcionamento do nosso coração, da nossa pressão sanguínea, monitorar nosso sono, nossas ondas cerebrais, analisar quantos passos damos por dia, as características da nossa voz, as calorias que consumimos e gastamos. Mas como usar essas informações captadas por esses inúmeros equipamentos presentes no nosso dia-a-dia para combater o estresse?

Responder essa questão é o principal objetivo de um projeto que está sendo realizado no Instituto de Ciências Matemáticas e de Computação (ICMC), da USP, em São Carlos, em parceria com a UFSCar e a Universidade do Arizona, nos Estados Unidos. “Nossa intenção é criar um sistema capaz de identificar as emoções do usuário por meio de vários sensores, interpretá-las automaticamente e reagir de modo inteligente, sugerindo ações para alterar um estado emocional indesejado ou reforçar um estado desejado”, explica o professor Jó Ueyama, um dos coordenadores do projeto, que é financiado pela FAPESPP.

Na prática, isso quer dizer que, se você pudesse acoplar um sistema assim ao seu smartphone ou ao seu computador enquanto está trabalhando, por exemplo, o equipamento seria capaz de identificar se você está em um dia bom ou em um dia ruim. Então, ele exerceria o papel daquele amigo que, quando nota que você está cabisbaixo, já convida para um café. Nesse caso específico, pense que o amigo seria a tela de seu smartphone ou de seu computador, onde apareceria a indicação de uma música para você ouvir naquele dia ou um alerta sobre a necessidade de fazer uma pausa para um exercício, uma água ou um café.

Na UFSCar, quem coordena o projeto é a professora Vânia Neris, do Departamento de Computação. Já pela Universidade do Arizona, a responsável é a professora Thienne Johnson.

Frentes de estudo – O desafio de tornar a tecnologia nossa grande aliada no combate ao estresse pode ser dividido em três principais frentes de estudo: a primeira está ligada à obtenção das informações sobre o estado emocional do usuário; a segunda relaciona-se à programação da ferramenta computacional para torná-la capaz de interpretar automaticamente as informações obtidas; e a terceira refere-se ao envio de sugestões interessantes e pertinentes para cada usuário.

No caso da primeira etapa, existe um vasto território de pesquisa sobre o uso de diferentes tipos de sensores para obtermos informações sobre as emoções que sentimos. “Nossa meta é ter uma visão abrangente do estado emocional de uma pessoa. Para estimarmos esse estado com precisão, quanto mais parâmetros usarmos, melhor”, explica Vinícius Gonçalves, que estrá fazendo doutorado no ICMC.

Em um mundo repleto de sensores, não faltam exemplos presentes no nosso cotidiano. Pense na câmera que vem acoplada à maioria dos computadores e smartphones, aí está um sensor relevante para a captação de expressões faciais, por exemplo. Também são indícios do nosso estado emocional o tempo que levamos para realizar uma tarefa, o número de pausas que fazemos e a quantidade de vezes que repetimos uma mesma ação.

Outros aliados interessantes nessa busca pela identificação do estado emocional de uma pessoa são as famosas pulseiras e relógios inteligentes. Atualmente, há diversos modelos disponíveis no mercado que possibilitam ao usuário monitorar a qualidade do sono, o número de passos dados, a distância percorrida, etc. Como a maioria desses dispositivos possuem tecnologia wireless como o bluetooth, é possível sincronizá-los com outros equipamentos e transferir os dados ali obtidos para outras plataformas, como os smartphones.

“Quando você vai a um oftalmologista, normalmente passamos por um pré-atendimento em que nossa acuidade visual é medida por meio de uma máquina. Estamos tentando criar um mecanismo similar para usar no consultório de um psicólogo ou de um psiquiatra, por exemplo, para mensurar o nível de estresse do indivíduo antes da consulta”, revela Ueyama.

Outra possível aplicação dos resultados do projeto é o monitoramento do estado emocional de profissionais que atuam em atividades de risco como quem trabalha em um reator nuclear, em uma plataforma petrolífera, em uma estação espacial ou, ainda, desenvolvendo um software crítico para o controle de um avião. “Ao monitorar o nível de estresse dessas pessoas, estaríamos garantindo que menos erros fossem cometidos e reduzindo a possibilidade de acidentes”, acrescenta o professor.

Interpretando emoções automaticamente – Mas como tornar uma ferramenta computacional capaz de interpretar automaticamente as informações obtidas por meio de sensores? Como uma máquina pode avaliar que você está nervoso ao notar que seu batimento cardíaco disparou, seu semblante está tenso e sua voz mais grave que o usual?

“Precisamos ensinar para a máquina qual é o significado de cada um desses sinais. Se uma alteração nos batimentos cardíacos é algo mais relevante para a alteração do estado emocional do que uma mudança na expressão facial, é necessário colocarmos pesos distintos para cada um desses parâmetros”, conta Ueyama. A construção desses significados e valores está sendo realizada a partir de uma série de experimentos, envolvendo a participação de psicólogos.

Em um desses experimentos foram coletadas e analisadas as respostas emocionais de estudantes enquanto jogavam uma partida de Super Mario Bros. Cada estudante jogou por aproximadamente 10 minutos, tempo em que sua frequência cardíaca era medida, suas expressões faciais filmadas e todas as ações realizadas nos botões do controle monitoradas.

Para analisar os dados obtidos nesse experimento, quatro psicólogos assistiram às filmagens para avaliar os momentos em que houve alguma variação significativa nos dados mostrados pelos sensores. Detalhe: para que pudessem classificar as emoções vivenciadas pelos estudantes de forma mais isenta, os psicólogos não tinham conhecimento dos dados captados pelos sensores.

A seguir, os pesquisadores uniram as informações fornecidas pelos psicólogos com os dados dos sensores. “Se o psicólogo avaliou que o estudante estava feliz em certo momento, observamos os dados que os sensores mostravam naquele instante. Dessa forma, temos como saber se era a expressão facial que havia alterado significativamente ou os batimentos cardíacos, por exemplo”, explica Ueyama.

É assim que nascem os parâmetros usados para construir a sequência de comandos que serão passados para o computador (algoritmos), ensinando-o a classificar as emoções. Nesse momento, os pesquisadores estão trabalhando especificamente na construção desses algoritmos.

A previsão é de que o projeto seja finalizado em 2016. Até lá, mais experimentos acontecerão nas instituições parceiras, como no Hospital de Marília e na Universidade do Arizona. Entre as inúmeras aplicações possíveis do projeto no âmbito hospitalar está o desenvolvendo de aplicativos para auxiliar a recuperação de pacientes ou dependentes químicos. Nesses casos, monitorar o estado emocional e lembrar o horário adequado de tomar a medicação pode significar muito menos estresse.

Curta, comente e compartilhe!
Pin It
0
0
0
s2sdefault
powered by social2s

topo oms2

Deixe sua opinião! Comente!