A IA traz emoção e empatia às “máquinas”
Imagine se as tecnologias – assistentes virtuais (tipo Alexa da Amazon), veículos autônomos, aparelhos de televisão, frigoríficos conectados, telefones celulares – estivessem cientes das suas emoções? E se elas percebessem o seu comportamento não-verbal em tempo real? E se seu carro pudesse perceber que você parece estar cansado e lhe sugerisse para não dirigi-lo. E se sua geladeira pudesse organizar com você em uma dieta mais saudável.
E se seu rastreador de ginástica portátil e TV pudesse juntar-se para tirá-lo do sofá. E se seu espelho do banheiro pudesse sentir que você está estressado e ajustasse a iluminação enquanto liga uma música que melhora o seu humor. As tecnologias conscientes do “humor” poderiam fazer “recomendações personalizadas” e incentivar as pessoas a fazer as coisas de forma diferente, melhor ou de forma mais rápida.
Vige Maria, parece coisa de Star Trek! Isso já é possível? Isso tudo será possível (algumas delas já são) com uma tecnologia disponibilizada pela Inteligência Artificial (IA) [1] que permite fazer a “análise da emoção” (“emotion analytics”) de uma pessoa e que na literatura também é tratada como “Computação Afetiva” (ou “Affective Computing”) [2-3] ou “Inteligência Emocional Artificial”.
O mundo está mudando de uma forma brutal através das novas tecnologias. Os computadores serão cada vez mais capazes de descobrir o que estamos “sentindo” e esse se tornará em um grande nicho de negócios nos próximos anos.
Um relatório recente prevê que o mercado global de “Computação Afetiva” passará de 12,2 BUS$ em 2016 para 53,98 BUS$ em 2021. O relatório da firma de pesquisa e consultoria Markets and Markets [4] observou que as tecnologias habilitadoras para o reconhecimento da emoção já foram adotadas em uma ampla gama de indústrias e, também, observou uma crescente demanda para o software de extração de recursos faciais.
E como isso funciona? Como uma “máquina” pode reconhecer a emoção de uma pessoa? A IA utiliza para isso algoritmos da tecnologia de Deep Learning [5] para analisar a justaposição dos músculos da face de uma pessoa e, dessa forma, inferir sobre o estado emocional da pessoa. O rosto humano tem 45 (alguns falam em 43) músculos faciais e, quando eles se contraem, eles se convertem em movimentos faciais que são reconhecidos pelos algoritmos. Quando uma pessoa comprime as sobrancelhas, o algoritmo procura identificar as suas rugas. E quando uma pessoa sorri, o algoritmo está procurando identificar se o formato da sua boca mudou e se os dentes estão à mostra. Ver mais detalhes em [4, 6 e 7].
Embora muitas pessoas não sejam ainda familiares ao conceito e usos da “Computação Afetiva”, os pesquisadores da academia já descobriram inúmeros usos para essa “neo-novíssima” tecnologia. Um exemplo inovador vem da Universidade de Tóquio onde os pesquisadores desenvolveram um sistema de “Machine Learning” para avaliar os conteúdos dos vídeos das palestra TED Talk. Claramente, uma palestra TED Talk só é considerada boa se ela ressoa com o público humano. Os pesquisadores de Tóquio queriam que seu sistema assistisse a vídeos de apresentações e prevesse as impressões dos usuários. Um sistema de “Machine Learning” então poderia avaliar com precisão a persuasão emocional de cada apresentador. O experimento foi bem sucedido e o método obteve “uma precisão média estatisticamente significativa de 93,3 por cento, superando vários métodos de patamares competitivos”. Ver mais sobre este estudo aqui em [8].
A utilização em áreas inovadoras da “Computação Afetiva” vai muito além da forma como as pessoas apresentam conteúdo. Ela também pode transformar a maneira como as pessoas aprendem. Pesquisadores da Universidade Estadual da Carolina do Norte exploraram a conexão entre os estados afetivos dos alunos e sua capacidade de aprender. Seu software foi capaz de prever com precisão a eficácia das sessões de ensino online, analisando as expressões faciais dos alunos participantes.
O software rastreou os movimentos faciais e detalhes faciais, tais como, levantamento de sobrancelha, aperto das pálpebras e covinhas nas bocas para determinar o engajamento, a frustração e a aprendizagem. Os autores concluíram que “a análise das expressões faciais tem um grande potencial para a mineração de dados educacionais”. Ver mais detalhes da pesquisa aqui em [9].
Uma startup tem consistentemente se destacado nesse cenário. Ela chama Affectiva [10]. Essa startup está focada em construir sistemas que qualificam a emoção das pessoas. Ela compilou quase 6 milhões de vídeos faciais em 87 países, possibilitando que um mecanismo de IA seja calibrado para expressões reais na natureza da emoção e para explicar as diferenças culturais na expressão emocional.
Usando visão computacional, análise da fala e a tecnologia de Deep Learning, a Affectiva classifica as expressões faciais e vocais da emoção. Existem ainda uns poucos desafios abertos – como você treina esses sistemas multimodais? E como você coleciona os dados para emoções menos frequentes, como orgulho ou inspiração?
No entanto, o campo está progredindo tão rápido que os pesquisadores da Affectiva esperam que as tecnologias que nos cercam se tornem conscientes da emoção nos próximos cinco anos. Elas vão ler e responder aos estados cognitivos e emocionais dos seres humanos, da mesma maneira que os seres humanos. Emoção da IA estará enraizada nas tecnologias que usamos todos os dias, funcionando em segundo plano e, tornando as nossas interações tecnológicas mais personalizadas, relevantes, autênticas e interativas. Com essa tecnologia disponível atualmente, é difícil lembrar agora o que tínhamos antes em termos interfaces de toque e reconhecimento de fala. Eventualmente, sentiremos a mesma coisa sobre nossos dispositivos conscientes da emoção!
A seguir destacamos algumas áreas importantes no uso da tecnologia de emoção da IA, a saber:
Automóvel: um veículo consciente do estado ocupante poderia monitorar o motorista quanto à fadiga, distração, frustração e talvez estado alcóolico. Além da segurança, o seu carro poderia personalizar a experiência do uso do táxi, tais como mudar a música ou configurações ergonômicas de acordo com quem está no carro. A montadora Toyota foi uma das primeiras a apostar na monitoração do motorista nos seus carros. A Toyota vai monitorar os movimentos dos olhos, expressões faciais e gestos, para prever se o motorista está se tornando sonolento ou irritado [11-12].
Educação: Em ambientes de aprendizagem online, muitas vezes é difícil dizer se um aluno está se esforçando para aprender. Quando chegar o momento dos teste de avaliação, muitas vezes é tarde demais – e o aluno já desistiu. Mas e se os sistemas inteligentes de aprendizagem pudessem oferecer uma experiência de aprendizagem personalizada? Esses sistemas ofereceriam uma explicação diferente quando o aluno estiver frustrado, ou diminuindo a velocidade em tempos de dúvidas ou, simplesmente, dizendo uma piada quando é hora de se divertir.
Saúde: Assim como podemos monitorar nossa condição de aptidão e saúde física, podemos monitorar nosso estado mental, enviando alertas para um médico se optarmos por compartilhar esses dados. Os pesquisadores estão investigando o uso da emoção da IA para o diagnóstico precoce de distúrbios como depressão, o mal de Parkinson e doenças cardíacas, bem como prevenção de suicídio e apoio ao autismo. Atualmente existem diversas pesquisas de biomarcadores de voz para identificar doenças [13] e também combinando biomarcadores de áudio e imagem conforme destacado na referência [14]. Uma área de pesquisa de ponta combinando voz e imagem facial é a de depressão. Ver as referências [15-16].
Varejo: Uma área muito quente para o uso da emoção da IA é o mercado varejista. Na referência [17] do site Convergência Digital tratamos de dois casos interessantes no mercado varejista: [a] o Walmart que está utilizando essa tecnologia para identificar clientes insatisfeitos no momento do pagamento através da análise de emoção utilizando a IA e [b] o da “vitrine eletrônica” que monitora a satisfação do cliente ao olhar produtos em uma vitrine.
Tal como ocorre com qualquer tecnologia inovadora, existe potencial tanto para o bem como para o mal. É difícil obter algo mais pessoal do que dados sobre suas emoções. As pessoas devem ter que optar por quaisquer tipos de compartilhamento de dados, e elas, também, devem saber para que os dados serão usados. Adicionalmente, precisamos descobrir se certas aplicações cruzam linhas morais. Teremos – ainda – que descobrir as regras em torno da privacidade e da ética em aplicações deste tipo.
Mas de qualquer forma serão “tantas emoções” com a tecnologia de IA nos próximos anos!
Referências:
[1] Artificial Intelligence, Wikipediahttps://en.wikipedia.org/wiki/Artificial_intelligence [2] Affective Computing, Wikipedia
https://en.wikipedia.org/wiki/Affective_computing [3] Affective computing: How ‘emotional machines’ are about to take over our lives, The Telegraph, 15.jan.2016
http://www.telegraph.co.uk/technology/2016/01/21/affective-computing-how-emotional-machines-are-about-to-take-ove/ [4] Affective Computing Market Worth 53.98 Billion USD by 2021, Markets and Markets, 23.mar.2017
https://www.prnewswire.com/news-releases/affective-computing-market-worth-5398-billion-usd-by-2021-616910674.html [5] Deep Learning, Wikipedia
https://en.wikipedia.org/wiki/Deep_learning [6] Facial Expression Analysis: The Complete Pocket Guide, Imotions, 16.feb.2016
https://imotions.com/blog/facial-expression-analysis/ [7] Referências do Google sobre “emotion analytics number of muscles”
https://www.google.com.br/search?q=emotion+analytics+number+of+muscles&oq=emotion+analytics+number+of+muscles&aqs=chrome..69i57.16625j0j8&sourceid=chrome&ie=UTF-8 [8] Prediction of User Ratings of Oral Presentations using Label Relations, Proceedings of ACM, 30.oct.2015
https://dl.acm.org/citation.cfm?id=2813533 [9] Automatically Recognizing Facial Expression: Predicting Engagement and Frustration, North Carolina State University, 2013 [pdf version]https://people.engr.ncsu.edu/keboyer/papers/grafsgaard-edm-2013.pdf [10] Affectiva
https://www.affectiva.com/ [11] From Toyota, vehicles driven by emotions, Automotive News, 23.oct.2017
http://www.autonews.com/article/20171023/MOBILITY/171029931/toyota-concept-i-mobility [12] Toyota to highlight reading of driver emotions at Tokyo show, Economic Times, 17.oct.2017
https://auto.economictimes.indiatimes.com/news/auto-technology/toyota-to-highlight-reading-of-driver-emotions-at-tokyo-show/61110738 [13] Biomarcador de Voz no Diagnóstico de Doenças: Uma Nova Ferramenta de IA, Saúde Business, 06.mar.2017
http://saudebusiness.com/biomarcador-de-voz-no-diagnostico-de-doencas-uma-nova-ferramenta-de-ia/ [14] Artificial Intelligence in Healthcare – Audio/Visual Biomarkers Aid in Diagnosis, Southern Medical Association, 18.jan.2017
https://sma.org/artificial-intelligence-health-care-audiovisual-biomarkers-aid-diagnosis/
[15] Artificial Intelligent System for Automatic Depression Level Analysis through Visual and Vocal Expressions, Asim Jan, Hongying Meng,Yona Falinie A. Gaus, and Fan Zhang, IEEE Transactions on Cognitive and Developmental Systems, January 2017 [pdf version]
http://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=7997822
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4539261/ [17] O interesse pelo reconhecimento facial da IA, Convergência Digital, 14.set.2017
http://convergenciadigital.uol.com.br/cgi/cgilua.exe/sys/start.htm?UserActiveTemplate=site&infoid=46223&sid=15
* Eduardo Prado é consultor de inovação e desenvolvimento de novos negócios na área de Inteligência Artificial (IA) em Saúde e Indústria.
Outras matérias de Eduardo Prado:
1. Blog Saúde 3.0 – http://saudebusiness.com/blogs/saude-3-0/
2. Convergência Digital – http://www.convergenciadigital.com.br/eduardoprado