As tecnologias estão sendo cada vez mais usadas para moldar políticas públicas, negócios e vidas das pessoas. Os juízes da IA estão ajudando a decidir as sentenças dos criminosos e a IA está sendo usada para capturar suspeitos de assassinato e até moldar sua apólice de seguro.
É por isso que o fato de os computadores não serem bons em detectar mentiras deve ser uma preocupação.
Pesquisadores do Instituto de Tecnologias Criativas da USC recentemente testaram a capacidade da IA de detecção de mentiras, e os resultados dos testes deixaram muito a desejar.
Colocando algoritmos à prova
A equipe de pesquisa do USC Institute for Creative Technologies recentemente testou algoritmos usando testes básicos para detectores de verdade e descobriu que as IAs falharam nesses testes.
Primeiramente, a equipe abordou o fato de que nossas expressões faciais podem não revelar tanto sobre o que estamos pensando como as pessoas acreditam:
“As pessoas e os chamados algoritmos de ‘leitura de emoções’ confiam na sabedoria popular de que nossas emoções estão escritas em nosso rosto”, disse Jonathan Gratch, diretor de pesquisa em seres humanos virtuais da ICT, em comunicado à imprensa.
“Isso está longe de ser verdade. As pessoas sorriem quando estão com raiva ou chateadas, mascaram seus verdadeiros sentimentos, e muitas expressões não têm nada a ver com sentimentos internos, mas refletem convenções culturais ou de conversação”.
Gratch e seus colegas apresentaram seus resultados de pesquisa na 8ª Conferência Internacional de Computação Afetiva e Interação Inteligente de ontem, em Cambridge, Inglaterra.
Duplicidade de leitura
É claro que todos sabemos que as pessoas podem mentir sem mostrar sinais óbvios disso. Pegue um político comum, por exemplo – fazê-la é praticamente um requisito de trabalho.
As pessoas costumam expressar o oposto do que sentem para se ater às convenções ou para enganar completamente alguém.
O problema é que os algoritmos não são tão bons assimilando essa duplicidade, apesar de estarem cada vez mais sendo usados para ler emoções humanas.
Atualmente, os algoritmos estão sendo usados em grupos focais, campanhas de marketing, para selecionar candidatos a empréstimos ou contratar pessoas para empregos.
“Estamos tentando minar a visão da psicologia popular de que as pessoas têm que, se pudéssemos reconhecer as expressões faciais das pessoas, poderíamos dizer o que elas estão pensando”, disse Gratch, que também trabalha como professor de psicologia.
“Estamos usando suposições ingênuas sobre essas técnicas, porque não há associação entre expressões e o que as pessoas realmente estão sentindo com base nesses testes”.
Como eles provaram isso?
Gratch e Rens Hoegen, da ICT, juntamente com Brian Parkinson e Danielle Shore, da Universidade de Oxford, fizeram um exame das expressões faciais espontâneas em diferentes situações sociais.
Em um estudo, a equipe usou um jogo que eles criaram, no qual 700 pessoas jogavam por dinheiro. Enquanto os sujeitos brincavam, eles capturaram como as expressões das pessoas afetavam suas decisões e quanto dinheiro eles ganhavam.
Em seguida, a equipe de pesquisa solicitou aos participantes que respondessem perguntas sobre seu comportamento. Por exemplo, perguntaram aos sujeitos se eles costumavam blefar, se estavam usando expressões faciais para obter vantagem e se suas expressões correspondiam a seus sentimentos.
A equipe, então, examinou as relações entre expressões faciais espontâneas e momentos-chave durante o jogo. Sorrisos eram a expressão facial mais comum, independentemente do que os participantes estavam realmente sentindo. Os jogadores também eram bastante imprecisos na leitura das emoções uns dos outros.
“Essas descobertas enfatizam os limites do uso da tecnologia para prever sentimentos e intenções”, disse Gratch. “Quando empresas e governos reivindicam esses recursos, o comprador deve tomar cuidado, porque muitas vezes essas técnicas têm suposições simplistas incorporadas a eles que não foram testadas cientificamente”.
Os algoritmos de leitura de emoções comumente usados geralmente descontextualizam o que estão vendo, argumentam os pesquisadores.
Parece que a detecção de mentiras da IA está muito longe de se tornar popular.
Achou útil essa informação? Compartilhe com seus amigos! xD
Deixe-nos a sua opinião aqui nos comentário.