Compartir
Publicidad

Las redes neuronales podrán ser los moderadores que detecten imágenes inapropiadas en las redes sociales

Las redes neuronales podrán ser los moderadores que detecten imágenes inapropiadas en las redes sociales
Guardar
0 Comentarios
Publicidad

Si usas alguna red social, es muy probable que en algún momento te hubieras topado con una foto inapropiada para todos los públicos, como lo son por ejemplo imágenes pornográficas. Usualmente los mecanismos de eliminación de estos contenidos indeseados implican una denuncia por parte de los demás usuarios, o la intervención de un moderador que elimina estos contenidos, y que usualmente se ha tratado de automatizar para realizar estas tareas lo más pronto posible.

Las buenas nuevas, es que este problema en las redes sociales, puede que tenga los días contadosgracias al poder de las redes neuronales y su capacidad de aprendizaje. Hace poco Yahoo! Presentó un nuevo modelo de código abierto que tiene la capacidad de analizar fotografías y determinar si se tratan de imágenes pornográficas o no apropiadas. Este algoritmo podría librar a los moderados y los usuarios en un futuro de la molesta de denunciar imágenes que violan los términos y condiciones del sitio.

El sistema usa un modelo de inteligencia artificial llamado aprendizaje profundo en al cual se le enseña a reconocer patrones por medio de la repetición. Para entrenar el sistema, alimentan la base de datos de la red neuronal con cientos de imágenes inapropiadas para lograr que nuevas imágenes sean inferidas en función de la información prexistente. La red neuronal crea patrones de reconocimiento que le ayudan a reconocer imágenes similares y determinar si son de la misma naturaleza.

Este tipo de modelos de aprendizaje ya han sido puestos a prueba con éxito en otros contextos como el del reconocimiento de imágenes de rostros que han sido censuradas con la técnica de pixelado, para inferir el rostro original de la persona en función de otras imágenes no censuradas. Ahora es muy probable que este sistema se ponga al servicio de la comunidad para la defensa de la moral en la red, y seguramente la protección de los menores.

Yahoo! Ha dejado el proyecto en GitHub con una licencia de tipo BSD y una copia pre entrenada de la red neuronal, para que pueda ser utilizada y modificada a necesidad de quienes la quieran utilizar. Algo que muy seguramente agradecerán los moderados de páginas web de toda la red.

Temas
Publicidad

También te puede gustar

Publicidad
Publicidad

Ver más artículos