https://bodybydarwin.com
Slider Image

Facebook está contratando 3000 nuevos monitores de contenido para un trabajo que la IA no puede hacer

2020

Ayer, Mark Zuckerberg anunció que Facebook está contratando a 3.000 personas para trabajar en su equipo de operaciones comunitarias, que revisa imágenes, videos y publicaciones que los usuarios informan. Estas nuevas contrataciones se unirán a los 4.500 empleados existentes en un esfuerzo por minimizar el alcance de eventos futuros como el tiroteo de Robert Goodwin. Es una inversión considerable pero esencial para Facebook, pero nos lleva a una pregunta básica: ¿no se puede automatizar este trabajo?

La escala de este trabajo es enorme: Facebook está contratando a más personas que trabajo en las salas de redacción combinadas del New York Times, el Wall Street Journal y el Washington Post. Facebook no dice en este momento si los trabajos serán empleados o contratistas, y si se ubicarán en los Estados Unidos o en el extranjero. (¿Tienes curiosidad por saber cómo es ese trabajo? Lee la inmersión de Adrien Chen en la moderación de contenido de 2014, o mira este video sobre el proceso de moderación)

"Estos revisores también nos ayudarán a mejorar en la eliminación de cosas que no permitimos en Facebook, como el discurso de odio y la explotación infantil, escribió el CEO de Facebook, Zuckerberg". Y seguiremos trabajando con los grupos comunitarios locales y las fuerzas del orden público que están en la mejor posición para ayudar a alguien si lo necesitan, ya sea porque están a punto de hacerse daño o porque están en peligro por otra persona. " (énfasis añadido)

El subtexto es el asesinato del 16 de abril de Robert Goodwin en Cleveland. Según una línea de tiempo publicada por Facebook, a las 2:09 PM hora del Este del 16 de abril, un hombre subió un video que indica su intención de cometer un asesinato. Dos minutos después, el hombre subió el video de él disparando a Goodwin. Poco después de eso, el sospechoso de asesinato publicó en vivo en Facebook durante cinco minutos. El video del tiroteo fue reportado a las 4PM, y a las 4:22 Facebook suspendió la cuenta del tirador y eliminó sus videos de la vista pública. Eso es poco más de dos horas entre la publicación inicial y la suspensión de la cuenta, pero la ubicuidad de Facebook y la naturaleza horrible del asesinato lo convirtieron en noticia nacional.

Hay algunos contenidos que Facebook censura de manera preventiva a medida que se cargan. La compañía utiliza sistemas automatizados para encontrar fotos desnudas y pornográficas previamente eliminadas cuando se suben por segunda vez. La red social también emplea PhotoDNA, una herramienta que hace referencias cruzadas de imágenes contra una base de datos de marcadores conocidos de fotos de explotación infantil, para que las fotos puedan ser bloqueadas y reportadas a las autoridades legales correspondientes. En ambos casos, la automatización verifica las cantidades previamente conocidas.

La mayor parte de la automatización en el proceso ayuda a la aplicación manual por parte de los revisores de contenido humano. Si un contenido se informa 1000 veces, las herramientas reconocen informes duplicados, por lo que solo debe revisarse manualmente una vez. Otras herramientas dirigen imágenes, publicaciones o videos a revisores que tienen experiencia específica; Por ejemplo, alguien que hable árabe podría revisar el contenido marcado de un grupo extremista en Siria que podría violar los términos de servicio de Facebook.

Aún así, es la capacidad del juicio humano para comprender el contexto lo que rige el día. Para determinar si un comentario es odioso o intimidante, Facebook se basa en personas reales. Y en el caso específico de Facebook Live, hay un equipo dedicado a monitorear informes en video en vivo; el grupo monitorea automáticamente cualquier video en vivo que llegue a un determinado umbral de popularidad no declarado.

Hay un área donde Facebook le está dando a la IA un papel más activo. En marzo, la red lanzó una herramienta de inteligencia artificial para la prevención del suicidio, que identifica las publicaciones que parecen indicar pensamientos suicidas. BuzzFeed informa que la IA puede escanear publicaciones y comentarios en busca de similitudes con publicaciones anteriores que justificaban una acción. En raras circunstancias, alertará directamente a los moderadores, pero con mayor frecuencia mostrará a los usuarios herramientas de prevención del suicidio como el número de una línea de ayuda. Además, la IA hace que un botón para informar autolesiones sea más prominente para los amigos de la persona, lo que aumenta la probabilidad de que marquen el video para los moderadores humanos de Facebook. (La compañía declinó hacer comentarios sobre el registro de esta historia).

La alternativa inmediata a la moderación humana es probablemente la censura preventiva.

"¿Queremos un Facebook más censurado?", Dijo Kate Klonick, miembro residente del Proyecto de la Sociedad de la Información en Yale. "Cuando se está implementando un sistema demasiado robusto, el potencial es que las personas no estén capacitadas correctamente y habrá muchos más falsos positivos y mucha más censura".

El trabajo de Klonick se centra en Facebook y otras plataformas como sistemas que rigen el discurso en línea. Facebook tiene que tomar decisiones activas sobre cómo regula lo que se publica y se mantiene publicado, argumenta Klonick, y no existe una bala mágica algorítmica que pueda cambiar esto de un problema de habla a un simple desafío técnico.

"Estamos a años de poder tener IA que pueda resolver estos complejos problemas de toma de decisiones", dijo Klonick. "No es solo el reconocimiento de fotos, es el reconocimiento de fotos además de la toma de decisiones además de la categorización, que son problemas cognitivos difíciles, que no estamos cerca de resolver de manera confiable".

El desafío del reconocimiento de fotos es tan icónico en la programación de computadoras que se ha convertido en una parábola. En 1966, Seymour Papert del MIT propuso lo que él pensó que sería un simple proyecto de verano: entrenar una computadora para reconocer objetos. En lugar de terminar en un verano, el campo de la capacitación de computadoras para reconocer objetos es una tarea monumental, que continúa hasta el día de hoy, con compañías como Google y Facebook que invierten dinero y horas en investigar una solución.

"En el futuro previsible", dice Klonick, "no es un problema de IA ni una solución de IA".

Usemos robots humanoides para cultivar órganos de trasplante

Usemos robots humanoides para cultivar órganos de trasplante

Todas las nuevas características que Facebook anunció en la conferencia F8 2019

Todas las nuevas características que Facebook anunció en la conferencia F8 2019

Mientras duermes, los científicos usarán un telescopio espacial para espiar a las aves migratorias

Mientras duermes, los científicos usarán un telescopio espacial para espiar a las aves migratorias