Ja fa molts anys que el cinema i la literatura de ciència-ficció imaginen un futur en què els robots viuran entre nosaltres i ens ajudaran a fer tota mena de coses, des de les tasques domèstiques més bàsiques, com rentar plats o cuinar -n’hi ha que ja aspiren sols-, fins a cuidar els fills. Actualment ja se’ns fa difícil pensar la vida sense determinades màquines: telèfons intel·ligents, cotxes intel·ligents, cases intel·ligents... però ¿us imagineu un dia en què quan estudiem davant l’ordinador l’aparell sigui capaç de percebre la nostra frustració perquè no estem entenent res i ens pugui derivar cap a altres continguts tal com faria un mestre, que ens ho explicaria d’una altra manera? ¿O que estiguem jugant amb una consola que capti que ens estem avorrint i el joc ens plantegi reptes o situacions diferents que sí que ens motivin pel nostre estat emocional d’aquell moment? Això encara no és possible, però un equip d’investigadors de la Universitat Oberta de Catalunya (UOC) ha fet un avenç important en aquest sentit gràcies al desenvolupament d’un sistema informàtic que és capaç de reconèixer les emocions de les persones.
Després de prop d’una dècada treballant en un sistema de reconeixement facial de la identitat, fa cinc anys els investigadors David Masip i Àgata Lapedriza es van centrar en la investigació de les emocions mitjançant tècniques de visió per computador. Concretament treballen en la detecció de l’expressió facial de set emocions bàsiques: tristesa, alegria, sorpresa, menyspreu, ira, por i fàstic. El que han aconseguit, amb el suport de l’estudiant de doctorat David Sánchez-Mendoza, és que un programa informàtic determini quines d’aquestes set emocions sent l’individu analitzat només a partir de les imatges de la seva cara. El projecte, segons els seus creadors, pot arribar a tenir un munt d’aplicacions com ara en l’àmbit sanitari, des d’on ja hi han mostrat molt d’interès. I és que podria ajudar a diagnosticar malalties i demències o ajudar nens amb TDAH i autisme.
Expressions universals
Tot i que hi ha algunes veus que discrepen, la teoria més acceptada sobre l’expressió facial de les emocions bàsiques és que tenen unes característiques determinades, innates i universals. És a dir, hi són presents des del naixement i són comunes a totes les cultures, tal com ja assenyalava Charles Darwin el 1872 en el seu llibre L’expressió de les emocions en l’home i en els animals. Per exemple, l’expressió de la ira seria igual aquí que en un lloc tan llunyà com Kuala Lumpur: mirada fixa, celles juntes i mirant avall i tendència a serrar les dents. És en aquestes microexpressions universals en què es basa el sistema informàtic de Masip i Lapedriza. Situant una sèrie estratègica de punts a la cara, com ara els extrems dels ulls o de la boca, el programa teixeix una espècie de malla que fa un motllo del rostre i que detecta el moviment dels músculs. “L’objectiu és localitzar unes regions concretes de la cara que ens donen molta informació sobre l’expressió que està manifestant la persona”, concreta Lapedriza.
Les microexpressions són molt difícils de controlar perquè els músculs s’activen automàticament, no conscientment. Els moviments són tan ràpids i subtils que per detectar les microexpressions han de fer servir càmeres d’alta freqüència, a partir de 200 frames(unitat mínima d’imatge estàtica en què es pot descompondre una seqüència de vídeo) per segon i ho passen a càmera lenta. Per provar el programa han fet servir una base de dades d’expressió facial de la Universitat de Pittsburgh, en què hi ha vídeos curts de gent expressant les set emocions bàsiques. I el percentatge d’encert s’ha situat al voltant del 90%.
D’altra banda, en l’estudi Reconeixement de l’emoció de les característiques de nivell mitjàtambé han volgut provar si el sistema és capaç de diferenciar entre l’actitud positiva i la negativa de les persones. I ho han fet a través de l’expressió facial de presentadors de diferents cadenes de televisió, alguns dels quals de TV3.
Notícies bones o dolentes
Es tractava de detectar quan la notícia era bona i quan era dolenta només a partir de la cara del presentador. Per comprovar-ho, també han hagut de mirar “si la persona és capaç de detectar la diferència entre l’actitud positiva i negativa del presentador, ja que, treballant amb emocions, si la persona no és capaç de resoldre-ho, difícilment ho podrem aconseguir fer de manera automàtica amb l’ordinador perquè no sabem què és el que no funciona”, explica Lapedriza, que també és investigadora del MIT de Boston, als Estats Units.
Els resultats tant de les proves amb persones com amb el sistema informàtic han sigut similars, al voltant del 85% d’encerts. Tot i els avenços, “som lluny encara que les màquines estiguin integrades -confessa David Masip, que dirigeix el grup de recerca SUNAI- perquè no són capaces d’entendre’ns com nosaltres ens entenem entre nosaltres”. Hi ha un pas imprescindible per integrar-les realment entre nosaltres gens fàcil de superar. Si volem que les màquines puguin interactuar amb nosaltres d’una manera natural, que les veiem com un company, necessitem que les màquines ens entenguin de la mateixa manera que ens entenem els uns als altres, que entenguin com ens sentim.
Cap comentari:
Publica un comentari a l'entrada