La firma global de consultoría LLYC ha anunciado la puesta en marcha de The Purple Check, una inteligencia artificial que ayuda a hablar e informar mejor sobre violencia de género. La herramienta funciona «de manera sencilla», ya que basca con introducir «un titular y la solución comprueba si las palabras que hemos utilizado están en línea con las reglas de buenas prácticas derivadas de las guías United Nations Development Programme (UNDP) y Mediterranean Network of Regulatory Authorities (MNRA)«.
Tal y como informa LLYC en una nota de prensa enviada a los medios de comunicación hoy lunes 4 de marzo de 2024, cuatro días antes de la celebración del 8M, Día Internacional de la Mujer 2024, «en caso contrario, nos recomendará cómo decir lo mismo para informar sin promover la desigualdad y así devolver el foco a la comunicación».
The Purple Check es una herramienta de libre acceso «porque la lucha contra la violencia de género es un asunto de todos en la defensa de los derechos humanos».
“The Purple Check refleja nuestro compromiso con la igualdad. Es una contribución que hacemos desde la innovación y nuestra herramienta propia de IA para generar conciencia social. Necesitamos un tratamiento de la información más objetivo, equilibrado y justo. La solución nos permite enfocar las noticias con perspectiva de género. Sólo si todos detectamos el sesgo podemos conseguir que el lenguaje sea una herramienta más de cambio».
Luisa García, Socia y COO Global de LLYC
Más información sobre la IA The Purple Check de LLYC
The Purple Check, como sigue la nota de prensa, surge a raíz de las conclusiones del informe Desenfocadas: Cómo opinar e informar mejor sobre la violencia de género que ha realizado LLYC en el marco del 8M, Día Internacional de la Mujer. El estudio concluye «que aunque los medios de comunicación conciencian, sensibilizan y previenen sobre violencia de género el doble que las redes sociales, queda mucho trabajo por delante».
En este sentido, lamenta que «todavía el 20% de las noticias publicadas justifican las agresiones y una de cada seis vulnera la intimidad de las víctimas exponiendo datos personales que estas preferirían evitar». Además, en general, «sabemos mucho de ellas y poco del agresor» porque «hay un 75% más de menciones a los atributos de las víctimas» y «el negacionismo se retroalimenta: una insinuación en medios se multiplica por cuatro en la conversación social».
Para la elaboración de este informe, el equipo de Deep Learning de LLYC ha analizado 226,2 millones de artículos de noticias generales, 5,4 millones de noticias sobre violencia de género y 14 millones de mensajes en la red social X relacionados con la violencia de género en 12 países en los que la consultora está presente (Argentina, Brasil, Chile, Colombia, Ecuador, España, Estados Unidos, México, Panamá, Perú, Portugal y República Dominicana).
En la investigación se han empleado Large Language Models (LLMs- GPT4) para identificar y aislar descriptores dirigidos a víctima y agresor, en noticias públicas obtenidas mediante modelos de scrapers, así como técnicas de Procesamiento de Lenguaje Natural (NLP) en 4 idiomas para analizar el cumplimiento de 21 reglas de buenas prácticas derivadas de las guías UNDP y MNRA.
“Quienes participamos en la conversación social sabemos que dar visibilidad a la violencia de género es fundamental para avanzar en su erradicación. Sin embargo, hacerlo mal puede ser contraproducente, generando sensacionalismo y provocando una doble victimización. Desde LLYC queremos, no solo evidenciar este riesgo sino aportar herramientas para evitarlo”.
Luisa García, Socia y COO Global de LLYC