Con inteligencia artificial ¿se puede hacer análisis de emociones para detectar y comprender las emociones humanas manifestadas en el lenguaje?
Comunícate con nosotros
Comunícate con nosotros

Menu superior

Actualidad

Con inteligencia artificial ¿se puede hacer análisis de emociones para detectar y comprender las emociones humanas manifestadas en el lenguaje?

Un grupo de cuatro investigadores en lingüística computacional, entre ellos dos colombianos del Instituto Caro y Cuervo, realizaron un proyecto basado en WordNet donde proponen una nueva representación computacional para las palabras que desafía los métodos actuales basados en redes neuronales y aprendizaje profundo.

Un grupo de cuatro investigadores en lingüística computacional, entre ellos dos colombianos del Instituto Caro y Cuervo, realizaron un proyecto basado en WordNet donde proponen una nueva representación computacional para las palabras que desafía los métodos actuales basados en redes neuronales y aprendizaje profundo. Esa representación se aplicó a similitud léxica y análisis de emociones.

 

Su investigación fue publicada en la revista IEEE-Computer Intelligence Magazine, la #9 en el mundo en la categoría Computer Science/Artificial Intelligence según JCR.

 

Ver articulo: https://www.caroycuervo.gov.co/documentos/imagenes/word2set-preprint.pdf

 

El artículo explica cómo las computadoras están adquiriendo la capacidad de comunicarse con nosotros utilizando el lenguaje natural que utilizamos todos los días. Esto se está comenzando a lograr gracias a los avances de la computación en el aprendizaje maquinal (machine learning) y más recientemente en lo que se conoce como aprendizaje profundo (deep learning).  Estas tecnologías están presentes hoy en día en los asistentes personales automáticos como Alexa de Amazon, Siri de Apple o el asistente de Google.

 

Sin embargo, para “entrenar” estos cerebros artificiales se requieren grandes cantidades de datos. Por ejemplo, para que un cerebro artificial pueda aprender una tarea que es sencilla para los humanos, como determinar la similitud entre palabras o resolver analogías sencillas, este se debe entrenar “leyendo” o “procesando” muchísimos textos.  Para darse una idea,  los modelos más populares necesitan leer unos 100 billones de palabras, esto es el equivalente a 20 millones de Quijotes. Conseguir esa cantidad de texto en idiomas como el inglés o el español no es un problema, pero muchas lenguas minoritarias esto puede resultar imposible. Inclusive lenguas no tan minoritarias como el catalán o el quechua, las cuales cuentan cada una con unos 10 millones de hablantes, conseguir esa cantidad de texto es una tarea difícil.

 

En el caso del quechua podría ser necesario que cada hablante escribiera el equivalente a dos Quijotes para que cerebro artificial pueda “entender” el quechua. Pensemos en lo que significa esto en una como el wayuu en Colombia, la cual tiene a lo sumo unos 700,000 hablantes, o cualquiera de las otras 60 lenguas que se hablan en Colombia, cada una con muchos menos hablantes.  Esto significa que la promesa de que la computación fuese accesible para todos cuando las computadoras pudiesen hablar es actualmente solo una promesa para las lenguas mayoritarias.

 

Antes del “deep learning” la manera para que las inteligencias artificiales pudiesen entender el lenguaje humano consistía en construir manualmente unos diccionarios especiales para computadoras. El más famoso de estos diccionarios fue WordNet desarrollado en la Universidad de Princeton en los años 90s. WordNet tenía clasificadas más de 300 mil palabras del inglés con más de un millón de relaciones entre esas palabras conformando la red semántica de palabras más grande creada por la humanidad hasta ese momento. Aún con ese recurso, las computadoras no lograban comunicarse de manera natural con las personas. Con la llegada del aprendizaje profundo en la segunda década de este siglo, WordNet pasó a un segundo plano.

 

El aporte de los investigadores

 

El trabajo lo lideraron cuatro expertos: Sergio Jiménez y George Dueñas del Insituto Caro y Cuervo en colaboración con Fabio A. González, MindLab Research Group de la Universidad Nacional de Colombia;  y Alexander Gelbukh, CIC del Instituto Politécnico Nacional de México.

 

Su aporte a la ciencia consistió en “desempolvar” a WordNet y proponer una nueva manera de utilizar ese recurso de manera que pudiese competir con los cerebros artificiales modernos. La novedad de nuestro método consiste en que para determinar la similitud de un par de palabras, en lugar de buscar caminos entre las dos palabras en la red semántica (como se hacía hasta ahora) primero buscamos cientos de palabras relacionadas a cada una de las dos palabras y luego relacionamos estos cientos de palabras con otros algoritmos de aprendizaje maquinal.  El resultado fue que logramos resultados competitivos contra modelos muy populares como lo son Word2vec (de Google) y GloVe (de la Universidad de Stanford).

 

Otra contribución importante de este trabajo fue en el campo del análisis de emociones (sentiment analysis en inglés). Este campo de investigación es el que se ocupa de proveer a las inteligencias artificiales de la capacidad de detectar y comprender las emociones humanas manifestadas en el lenguaje.  Nuevamente, se comparamó el método propuesto contra Word2vec y GloVe en la tarea de identificar en las palabras el grado de antagonismo, amabilidad, sensibilidad (entre otros tipos de emociones) logrando mejores resultados.

 

¿Cuál es impacto esperado en el mundo?

 

Este trabajo renueva la promesa de la computación para todo el mundo sin discriminación de las lenguas minoritarias. Ahora, es posible que un equipo de lexicógrafos y lingüistas construyan manualmente una WordNet para una lengua minoritaria, y con esto, se abre la posibilidad de que los hablantes de esa lengua puedan hacer uso de muchas de las tecnologías que hasta el momento solo disfrutan los hablantes de las lenguas mayoritarias. Aunque para que esto sea una realidad se requiere de muchas otras tecnologías, esfuerzo y presupuesto, se ha dado el primer paso que abre la puerta a esa posibilidad en el futuro.

 

Aunque en el mundo hay países con mucha diversidad lingüística, como Papúa Nueva Guinea con más de 800 lenguas, Colombia es uno de los países con mayor diversidad en América. Este año 2019 es el año de las lenguas indígenas en Colombia, las cuales son más de 60 aparte del palenquero, el creole, el romaní, la lengua de señas colombiana y la de Providencia. Esta diversidad lingüística hace que para nosotros sea importante la investigación en las tecnologías que ayuden a una mejor comunicación entre TODOS los colombianos y no solo entre la mayoría.

 


Mayor información: https://www.caroycuervo.gov.co/Noticias/con-inteligencia-artificial-se-puede-hacer-analisis-de-emociones-para-detectar-y-comprender-las-emociones-humanas-manifestadas-en-el-lenguaje/

 

Más información:
Connie Pazos A.
Asesora de Comunicaciones
Instituto Caro y Cuervo
Tel. 3176572125
3242121 Ext 108
Mail: [email protected]


Fuente: http://www.caroycuervo.gov.co