Pornhub eliminó 653.000 vídeos en 2020 ayudado por herramientas tecnológicas

La página ha publicado su primer informe de transparencia, relativo a sus acciones de moderación en 2020.Foto: archivo EFE
05 abr 2021 , 04:15
Redacción

La plataforma ha puesto el foco en sus esfuerzos por utilizar tecnologías de moderación.

El sitio web de pornografía Pornhub eliminó durante el pasado año 2020 más de 653.000 vídeos en total por incumplir sus políticas de contenido, una moderación para la que se apoyó en el uso de herramientas automáticas desarrolladas por compañías tecnológicas como Google y Microsoft.

 

La página ha publicado su primer informe de transparencia, relativo a sus acciones de moderación en 2020. Entre enero y diciembre de ese año, eliminó 653.465 contenidos por ser "potencialmente ofensivos", como explica la compañía en un comunicado.

 

Entre las principales razones para eliminar estos vídeos, la plataforma ha destacado que representaban a personas menores de edad, relaciones no consentidas, maltrato animal, incesto, que contenían discurso del odio, imágenes de fluidos como sangre y heces o contenido violento.

 

Asimismo, la plataforma ha puesto el foco en sus esfuerzos por utilizar , que aplica para identificar los contenidos inapropiados que se suben.

 

Entre estos sistemas está la tecnología desarrollada por para detectar los vídeos de explotación infantil. En 2020, escaneó todos los vídeos subidos con esta herramienta, y desde entonces analiza los vídeos al subirse.

 

La página pornográfica emplea también PhotoDNA, un mecanismo desarrollado por Microsoft que es capaz de detectar copias de vídeos de explotación infantil previamente descubiertos. Este sistema se usa también antes de publicarse los contenidos.

 

A esto se añade el uso de la API de Seguridad de Contenido de Google, que emplea la Inteligencia Artificial de la compañía estadounidense para ayudar a identificar también el material de abuso contra niños.

 

La plataforma ha asegurado que utiliza también herramientas desarrolladas por compañías externas como y por la propia empresa para combatir tanto las copias de contenido eliminado como los vídeos nuevos que infringen las políticas al incluir sexo no consentido o violencia, entre otras, así como moderadores humanos.

TAG RELACIONADOS