{"multiple":false,"video":[]}

(CNN Español) — La respuesta más común en Silicon Valley ahora mismo podría ser: Lo haremos mejor la próxima vez.

Cuando Facebook promovió, de forma inadvertida, teorías de la conspiración compartidas por usuarios después del accidente del Amtrak, la compañía dijo que iba a “trabajar para mejorar el producto”.

Cuando Google compartió una teoría de la conspiración en sus resultados de búsqueda después del tiroteo masivo del pasado año en Texas, la empresa dijo que “continuaría mirando las formas de mejora”.

Y cuando YouTube —propiedad de Google— extendió teorías de la conspiración como repercusión del devastador tiroteo en Las Vegas, el servicio de video decidió actualizar su algoritmo para prevenir que pasara otra vez.

Pero ocurrió de nuevo.

Este miércoles, YouTube y Facebook fueron obligados a publicar otro ‘mea culpa’ por promover teorías de la conspiración sobre David Hogg, un estudiante que sobrevivió al tiroteo masivo en la escuela de Florida de la pasada semana.

El video más visto en YouTube el miércoles sugería en letras mayúsculas que Hogg, que ha emergido como una voz líder sobre el control de armas desde el tiroteo, era en realidad un “actor”.

YouTube después borró el video, pero no antes de que fuera visto cientos de miles de veces. En un comunicado, YouTube dijo que su sistema “desclasificó” el video porque mostraba la imagen de un presentador de noticias reputado.

“El video nunca debió aparecer entre los más vistos”, dijo un vocero de Youtube en un comunicado dado a CNN. En él, concluía con una línea familiar: “Estamos trabajando para mejorar nuestros sistemas hacia adelante”.

En Facebook, Hoog era tendencia para los usuarios el miércoles. Pero muchos de los principales resultados sobre su nombre mostraban teorías similares de Hogg apareciendo como un actor pagado (Hogg, por su parte, ha criticados estas acusaciones).

Mary deBree, jefa de la política de contenido de Facebook, calificó las publicaciones como “aborrecibles” en un comunicado y dijo que Facebook estaba eliminando el contenido.

Ciertamente, las teorías de la conspiración no son nuevas en la vida de Estados Unidos. Pero el potencial de las plataformas tecnológicas para sobrealimentar estas teorías es una amenaza social exclusiva de la era moderna.

Este ciclo familiar de grandiosas promesas y expiación sobre este tema habla de una preocupación más profunda sobre si las compañías tecnológicas pueden, o desean, controlar adecuadamente sus plataformas masivas.

Solo la semana semana, Google ha sido requerido por hacer sugerencias ofensivas para los resultados de búsqueda sobre cultura negra y pobreza, y varias empresas tecnológicas han aparecido mencionadas en una acusación federal sobre la intromisión rusa en las elecciones de Estados Unidos.

Para usar el lenguaje preferido de Silicon Valley, ahora es difícil escapar de la conclusión de que la difusión de la desinformación y los engaños son una característica, no un error, de las plataformas de redes sociales y sus modelos de negocio.

Facebook y Google construyeron negocios increíblemente rentables proveyendo contenido por el que no pagan para miles de millones de usuarios, con anuncios colocados en ese contenido. Las plataformas desarrollaron una mejor y mejor manera de impulsar sus negocios publicitarios, pero no necesariamente una mejor moderación del contenido para animar a la discusión.

Bajo la presión de reguladores y anunciantes en los últimos meses, las dos compañías finalmente se han comprometido a contratar a miles de trabajadores adicionales para moderar sus plataformas. Mark Zuckerberg, CEO y cofundador de Facebook, dijo a los inversores en noviembre que la medida reduciría los márgenes de beneficio de la empresa.

Pero incluso esto podría ser una gota en un cubo en comparación con lo que se necesita.

Facebook ha dicho a los expertos que tendrá a 20.000 personas trabajando en temas de seguridad para finales de este año. Con 2.100 millones de usuarios, es el equivalente a tener un policía patrullando por cada 100.000 ciudadanos.

“La gente sobrestima los recursos de Facebook y subestima cuánto contenido maneja Facebook, dijo a través de correo electrónico Antonio García Martínez, ex director de producto en Facebook que ayudó al desarrollo de su sistema de orientación de captación. “Facebook tiene que atravesar literalmente miles de millones de publicaciones (fotos, mensajes, registros de entrada, etc.) cada día”.

Como resultado, dijo, Facebook “no puede revisar manualmente todas y cada una de las publicaciones”. La compañía a menudo termina por confiar en sus usuarios para marcar el contenido cuestionable. García Martínez dice que esto crear un “retraso de tiempo” antes de llamar la atención del personal de Facebook.

Google tiene un problema similar. A pesar de que aumenta la contratación, YouTube no tiene a personas para curar el contenido que aparece en las listas de tendencias porque tiene demasiadas pestañas de tendencias constantemente actualizadas en todo el mundo.

Como con otras muchas cosas en la industria tecnológica, las solución preferida es más tecnología, lo que permite a las compañías seguir operando a una escala masiva y las hacen atractivas para las ofertas de inversores y anunciantes.

Tanto Facebook como Google están invirtiendo en soluciones de inteligencia artificial para reformar sus plataformas. La inteligencia artificial podría permitir a estas compañías tener una mejor política en sus plataformas sin tener que contratar a cientos de miles de trabajadores.

Pero si esta clase de panacea llega, será en un futuro lejano. Zuckerberg ha dicho que le llevará “muchos años desarrollar estos sistemas”. Mientras, nuevas teorías de la conspiración aguardan ser tendencia.

 

Tags:

Deja tu comentario