Facebook ha anunciado que va a probar controles de exclusión de temas para anunciantes en la sección de Noticias de la red social. Lo hará, de momento, en un pequeño grupo de anunciantes y el objetivo es ayudar «a resolver su preocupación por sus anuncios aparezcan en la sección de Noticias junto a determinados temas en función de sus preferencias de idoneidad de marca».
Según ha informado Facebook, su plan es probar una solución que permite al anunciante, por ejemplo, la selección de un tema como ‘Crímenes y Tragedias’. Esta selección ayudaría a definir cómo mostrar los anuncios en Facebook, incluyendo la mencionada sección. «Por ejemplo, una empresa de juguetes para niños puede querer evitar el contenido relacionado con un nuevo programa de crímenes, por lo que podría seleccionar el tema ‘Crímenes y Tragedias'», explica la compañía.
En este sentido, señala que este desarrollo de productos y las pruebas de aprendizaje en las Noticias de Facebook «ocupará gran parte de este año». «Estos son nuevos controles y es importante que los construyamos con cuidado para proteger la privacidad de las personas mientras seguimos avanzando», detalla la empresa.
Si le interesa el mundo de los anuncios y la publicidad en Facebook, le recomendamos la lectura de este artículo sobre cómo crear chatbots para Facebook Ads.
Compromiso de Facebook con la seguridad
Esta es una medida más del compromiso que tiene Facebook con el uso seguro de su red social, no solo para conectar a las personas, sino también ofreciendo a las empresas anunciantes herramientas adaptadas a sus necesidades de marca.
A este respecto, como se informa en la página oficial de la compañía, lleva años realizando cambios para ayudar a garantizar «que las comunidades sean seguras, comprometidas cívicamente, solidarias, informas e inclusivas». De manera que el enfoque de Facebook en este sentido se divide en las siguientes tres áreas clave:
Creación de una comunidad segura y acogedora
El objetivo de la red social es «proteger a las personas de cualquier daño y darles más control sobre su privacidad, datos y el contenido que ven». De manera que asegura tomarse «muy en serio» el papel que tiene «de mantener el contenido dañino fuera de nuestras plataformas».
Esto lo hace con los denominados Estándares de Comunidad, que describen a los usuarios lo que está permitido y lo que no en Facebook e Instagram (recientemente Instagram ha añadido un panel para profesionales).
Mantener un ecosistema de alta calidad
El segundo punto que destaca Facebook es su trabajo para mantener un ecosistema de alta calidad de contenidos, anunciantes y anuncios. Este ámbito incluye las Políticas de Monetización para Partners y las Políticas de Monetización de Contenidos.
Como añade, solo los editores de contenidos que están de acuerdo con todas estas políticas pueden mostrar anuncios en Facebook. Al tiempo que señala a los anunciantes solicitan cada vez «más controles y transparencia acerca de dónde se han mostrado y se mostrarán los anuncios».
Colaboración proactiva con la industria
El tercer y último punto destacado por Facebook es el trabajo que realiza con organismos de la industria publicitaria y otras plataformas tecnológicas. El fin de esta colaboración es «compartir conocimientos, generar consenso y ayudar a que todas las plataformas sean más seguras para las personas y anunciantes».
En este sentido, cita la Alianza Global para Medios Responsables (GARM), que aúna a agencias, empresas de medios, plataformas y asociaciones industriales «para continuar mejorando la seguridad digital».