Tech reviews and news

Es posible que los robots detectores de pornografía no puedan diferenciar entre grot y art

click fraud protection

Los filtros de contenido son a menudo la primera, última y única línea de defensa entre los usuarios inocentes y la observación de imágenes sexualmente explícitas en el último lugar donde lo esperas.

A veces, realmente puedes prescindir de un vistazo inesperado a algo de pornografía, y muchos sitios están usando algoritmos para acabar con el grot antes de que lo veas. Desafortunadamente, parece que algunos de estos robots de bloqueo de pornografía no están funcionando tan bien como cabría esperar, y están salvando valientemente a varios usuarios del arte elevado, así como del material para adultos.

¿Cuál es el culpable aquí? Aprendizaje automático.

Explicado por Panda Security, han explicado que la mejor manera de enseñarle a un robot de bloqueo de pornografía es mostrarle un montón de imágenes pornográficas. Esto es similar a cómo funciona el sistema antivirus y anti-malware, y similar a esas herramientas, hay falsos positivos.

Relacionado: Los mejores juegos de PC

La cosa es que hay una gran diferencia entre una foto de alguien en lencería (eso sería malo) y alguien en bikini en la playa (generalmente ok) y ni siquiera empieces con lo similar que puede parecer algo como la lactancia materna (de nuevo, ok) a un montón de cosas que definitivamente son malas.

Hemos visto que esto sucedió varias veces recientemente. Panda Security menciona el polémico filtro de pornografía de Tumblr que se activó en diciembre, que ha estado marcando un montón de imágenes inocentes como sexualmente explícitas.

“En última instancia, los sistemas inteligentes creados con el aprendizaje automático tienen fallas porque las personas que los programan incapaz de especificar exactamente dónde se cruza la línea entre 'ok' y 'pornografía' ", afirma el blog de Panda Security correo. "Los algoritmos pueden bloquear el 99,9% del contenido cuestionable, pero el 0,1% que queda siempre será un problema".

“Estos matices son irrelevantes para la detección antimalware porque un archivo solo puede tener uno de dos estados: 'virus' o 'no virus'. Las imágenes, por otro lado, tienen tres estados: "pornografía", "no pornografía" y "tal vez pornografía". "Quizás la pornografía" es donde el aprendizaje automático puede fallar (y lo hace). También es donde se llevará a cabo la mayor parte de la inversión en sistemas automatizados en los próximos años ".

Apple pone su sello en Beats con los colores Solo2 que combinan con el iPhone

Ya que Apple se hizo con Beats el año pasado, la mayor parte de la conversación ha girado en torn...

Lee Mas

El cofundador de WhatsApp, Brian Acton, da su apoyo a '#DeleteFacebook'

Brian Acton, uno de los cofundadores de WhatsApp, ha instado a todos a eliminar Facebook a raíz d...

Lee Mas

Instagram está cerrando la aplicación extremadamente espeluznante Like Patrol

Instagram está cerrando Like Patrol, debido a las preocupaciones de que la aplicación fomenta y p...

Lee Mas

insta story