Queremos combatir los comentarios tóxicos», explican Lucila Paturzo Vanni, jefa de Producto y Marketing y Mauro Miranda, jefe de AdOps y Desarrollo de Negocios, de Taringa!Y lo primero que asoma, en una comunidad con 30 millones de usuarios, es qué significa justamente eso: tóxicos. «Es una interacción que desalienta que otros usuarios puedan seguir interactuando en esa página. O que otros no se animen a comentar o participar», desarrolla Miranda. «Nos dimos cuenta que el 60 por ciento dejaba de interactuar en las redes si veían un comentario de este tipo. Directamente se iban», analiza.
Con ese objetivo, empezaron a buscar alternativas. Abandonar, de a poco, el formato lista negra: eso significaba por ejemplo eliminar palabras que a priori son insultos pero que pueden tener otra connotación. «En Argentina por ejemplo, hay un insulto que funciona como una forma fraternal de relacionamiento», describen. No era lo más eficaz. Buscaban una herramienta que tuviera más contexto.
Un sistema de Google en el horizonte
«Ya teníamos en mente la idea de actualizar nuestro sistema de moderación porque notamos comentarios más y más tóxicos. En el pasado, nuestros moderadores marcaron alrededor de 1,500 informes de usuarios de contenido inapropiado por mes, pero vimos que aumentaron en un 15% en los últimos tres años, alcanzando un máximo de alrededor de 12,000 informes de usuarios a principios de 2018 «, dijo Paturzo Vanni.
En febrero de este año fueron entonces por la empresa Jigsaw, que desarrolló Perspective, un sistema de moderación basado en un algoritmo que detecta las «emociones» de los comentarios. Jigsaw es una firma especializada en software para moderación de contenidos que fue adquirida en 2017 por Alphabet, la compañía matriz detrás de Google,
Hasta antes de Taringa! el software Perspective era utilizado solo en inglés, y en este punto la red social argentina se convirtió en una pionera dentro de las compañías tecnológicas al dar el puntapié para utilizarla en español. El algoritmo hace un análisis del sentimiento y le pone un puntaje al comentario entre 0 y 1. Aquellos que detecte superiores a 0,9 de sensibilidad serán marcados como contenido sensible y ocultados. El reporte llega a los moderadores que deciden habilitar o no.
«Por supuesto que a veces da falsos positivos», aclara Paturzo. «Pero va aprendiendo de la experiencia y mejora la interpretación del contexto», completa. «No se apunta a la opinión», aclara Miranda. «Es la forma de dar esa opinión. Lo que importa es el sentimiento que hay detrás de la opinión. Si lo decís de forma agresiva. Tu opinión se puede decir de otra manera que no sea agresiva. Decí lo mismo pero que invite a la conversación», describe. La plataforma modera más de 150,000 comentarios cada mes.
En el futuro habrá otra nueva característica del sistema: antes de darle enviar a una publicación, estará la opción de, en caso que Perspective detecte que hay un tono agresivo, preguntarle al usuario si lo quiere escribir «de otra manera». «No se trata de moderar en el sentido de borrar algo. Es una forma de decir cambiá las formas de expresarte«, explican. Hay desafíos, por supuesto. Uno de ellos es la ironía, por ejemplo.
«Desde que lo empezamos a utilizar notamos una baja de agresividad. Antes, te ponías a leer los comentarios y te quedabas espantado. Ahora no: la experiencia general es mucho más agradable, es más tranquilo el ambiente», dice Paturzo. «En este tipo de redes hay otra dinámica. Uno interactúa con cualquier usuario. Y es en esos entornos, sumado al anonimato, donde los comentarios más tóxicos pueden florecer más», analiza.
Por ahora es solo una prueba que, dicen, les está dando muchos resultados. «Bajó un montón el reporte de comentarios», explican. «La idea es que Taringa! sea mucho más empático con los nuevos usuarios y aliente a nuestros miembros a pensar en el impacto de sus intervenciones», agregan. El desafío, en una comunidad que existe desde 2004, recién comienza, informó La Nación.