PROTEGIENDO A LAS MARCAS Y A LAS PERSONAS DEL CONTENIDO PROBLEMÁTICO EN LÍNEA

¿Sabías que más del 60% de la población total del mundo está ahora en línea?

A medida que Internet ha evolucionado para incorporar más redes y dispositivos, las personas de todo el mundo se han beneficiado de una mayor conexión y acceso a la información. Pero algunos de los mismos problemas que han preocupado a la humanidad a lo largo de la historia, incluido el discurso de odio y la desinformación, también han tomado forma en línea.

Afortunadamente, la inteligencia artificial está evolucionando para abordar estos desafíos. Algunos de los últimos avances en IA están ayudando a preservar la integridad de las plataformas en línea, evitar que el contenido dañino y engañoso llegue a las personas y garantizar la seguridad de la marca para los anunciantes.

Encontrar contenido problemático a escala es una tarea increíblemente difícil, pero la IA les está brindando a los especialistas en marketing herramientas para hacerlo de manera más rápida y efectiva.

Encontrar y eliminar el discurso de odio

Para fomentar la seguridad del usuario y mantener el contenido dañino fuera de nuestras plataformas, hemos establecido estándares comunitarios tanto para Facebook como para Instagram. Ahora podemos entrenar redes de IA complejas para escanear nuevas publicaciones en solo fracciones de segundo y evaluar si es probable que el contenido infrinja nuestras políticas.

Si bien los insultos y los símbolos de odio a menudo son obvios, muchos casos de discurso de odio son más complejos. El discurso de odio a menudo se disfraza de sarcasmo y jerga, o imágenes aparentemente inocuas que se pueden percibir de manera diferente en todas las culturas. A medida que aumenta la sutileza y el contexto, también aumentan los desafíos técnicos. Por eso es tan importante que, en los últimos años, haya habido un gran salto en la capacidad de la IA para obtener una comprensión más profunda de este contenido.

Como muestra la entrega más reciente de nuestro Informe de cumplimiento de las normas de la comunidad, AI detectó de manera proactiva el 96,8% de los 25,2 millones de discursos de incitación al odio que eliminamos durante el primer trimestre de 2021. Durante este tiempo, también redujimos la prevalencia del discurso de incitación al odio a seis de cada 10.000 contenido. vistas en Facebook. Esta métrica es especialmente importante para los anunciantes que desean comprender el riesgo potencial de que un anuncio se muestre junto a contenido que infringe nuestros estándares.

La IA nos ayuda a escalar la revisión de contenido al automatizar algunas decisiones y priorizar los casos más complejos para los revisores humanos. También evita que los revisores tengan que ver por sí mismos algunos de los contenidos más dañinos.

Identificar la desinformación

Cuando nuestros modelos predicen que es probable que una parte del contenido sea información errónea, se muestra a verificadores de datos de terceros para su revisión. Si lo califican como falso, agregamos etiquetas de advertencia y contexto. Se ha descubierto que estos son muy eficaces. En nuestra investigación interna, cuando a las personas se les mostraban etiquetas que les advirtieron sobre contenido calificado como falso, omitieron ver el contenido el 95% del tiempo.

Por cada información errónea que encontremos, podría haber miles de copias compartidas por los usuarios. La IA se utiliza ahora para detectar estos duplicados casi exactos y aplicar etiquetas a cada copia, lo que ayuda a luchar contra la información errónea.

A medida que surgen nuevos desafíos, aprovechamos continuamente la inteligencia artificial para ayudar con la aplicación de políticas. Por ejemplo, desde que comenzó la pandemia, hemos eliminado más de 16 millones de contenido falso relacionado con la vacuna y el Covid-19 en Facebook e Instagram que los expertos en salud han desacreditado a nivel mundial.

Prepararse para los mayores desafíos del mañana

Los memes de odio y los deepfakes (medios en los que un video o una imagen se altera sintéticamente para incluir la imagen de otra persona) son dos de los mayores desafíos con los que estamos entrenando modelos de IA para combatirlos en el futuro.

Los memes combinan lenguaje e imágenes de una manera que a menudo es irónica o matizada. El contenido de la imagen de un meme y el texto que lo acompaña pueden no ser ofensivos cuando se ven por separado, pero en algunos casos, el resultado es dañino cuando se combinan. Nuestros sistemas mejoran continuamente para evaluar imágenes y texto juntos, comprender el contexto y eliminar los memes de odio.

La comunidad de IA en general es proactiva en el intercambio de conocimientos y la creación de mejores experiencias en Internet. Nuestros recientes Hateful Memes y Deepfake Challenges se establecieron para obtener modelos de detección nuevos y abiertos que beneficien a todos. Al adoptar la ciencia abierta y reproducible, los investigadores de IA se hacen responsables entre sí y aumentan el acceso a las nuevas tecnologías.

La IA mejora constantemente las experiencias en línea

El objetivo del equipo de gestión de productos de IA es crear soluciones accesibles que hagan que sea práctico abordar el contenido dañino de forma equilibrada. En nuestras plataformas, creemos que las personas deben tener la libertad de decir lo que piensan, pero no de causar daño a otros. Y queremos que las empresas se unan a la conversación sin estar asociadas con contenido dañino o inexacto.

La IA no es la única respuesta al contenido problemático, pero nos permite adaptarnos y escalar de manera más rápida y efectiva que una fuerza laboral humana por sí sola. Sabemos que todavía hay más trabajo por hacer y estamos comprometidos a hacerlo realidad.

FuenteFacebook

Related Posts