Facebook, un Estado autoritario: entrevista con la reportera Sheera Frenkel

Mar 5 • Conexiones, destacamos, principales • 3598 Views • No hay comentarios en Facebook, un Estado autoritario: entrevista con la reportera Sheera Frenkel

 

Sheera Frenkel, reportera de ciberseguridad para The New York Times, en coautoría con Cecilia Kang, habla en entrevista de Manipulados, investigación periodística en la que cuentan los secretos de la corporación detrás de Facebook

 

POR FRIDA JUÁREZ
Despiertas, tomas el celular, revisas Facebook, deslizas y deslizas. Te pasas a Instagram y deslizas, deslizas, doble tap; cambias luego a Whatsapp, contestas mensajes y regresas a Facebook… Pero alguien, o algo, vigila y hace un conteo puntual de tus movimientos. Eres un número, una cifra. ¿Cómo llegamos a este punto?

 

En su libro Manipulados. La batalla de Facebook por la dominación mundial (Debate, 2021), Sheera Frenkel y Cecilia Kang, periodistas expertas en tecnología para The New York Times, explican cómo es que el mundo entero dedicó 44 mil 600 millones de horas en Facebook en 2021.

 

Con más de mil horas de entrevistas a empleados, exempleados, académicos, consejeros de Facebook y legisladores, las finalistas del Premio Pulitzer en 2019 en la categoría de National Reporting dan forma a la historia de Mark Zuckerberg. Pero el chico desertor de la Universidad de Harvard no es el único protagonista de esta historia. A lo largo de estas páginas conocemos también al rostro menos explorado de la red social: Sheryl Sandberg, una ambiciosa ejecutiva de Silicon Valley.

 

Juntos alimentaron Facebook bajo un simple objetivo: que el usuario pase la mayor cantidad de tiempo posible. Cuanto más estén las personas en Facebook, Instagram y Whatsapp, los usuarios proporcionarán más información, “producto” codiciado para los anunciantes de toda clase, desde refrescos hasta Donald Trump, fenómeno para el que la red social no estaba preparada. Fue cuestión de tiempo para que el “experimento social” diseñado para personas “inherentemente buenas”, como explican las autoras, se saliera de control.

 

En el libro señalan que la amplificación del algoritmo de Facebook es un problema porque impulsó la desinformación. ¿Cómo resolver este problema?

 

Renée di Resta, gerente de investigación en el Observatorio de internet de la Universidad de Stanford, dijo la frase “libertad de alcance no es libertad de expresión” y a lo que se refiere es sobre cómo el algoritmo amplifica ciertos tipos de discursos. Creo que técnicamente es posible volver a una vida sin el algoritmo. Si Facebook quisiera volver al orden cronológico (del News Feed) podría, al igual que cualquier otra red social. Pero creo que es poco probable porque lo que quieren es mostrar contenido que mantenga al usuario interesado en Instagram o Facebook el mayor tiempo posible y justo para eso está diseñado el algoritmo, para mantener al usuario interesado e involucrado, mostrando el contenido que, consideran, causará una reacción emocional en el usuario.

 

Por eso creo que las compañías actualmente están batallando, tienen a investigadores y científicos en sus equipos que aseguran que hay que hacer algo para cambiar el algoritmo y así evitar la desinformación, pero por otra parte tienen a los ingenieros diciendo “bueno, si hacemos los cambios que sugieren, la gente ya no va a estar tanto tiempo en Facebook y afectará nuestro negocio”.

 

El modelo Zuckerberg

 

Especialistas han señalado que uno de los mayores errores de Facebook fue su omisión del contexto. La plataforma de Zuckerberg, un hombre estadounidense blanco de clase media alta, se expandió velozmente a todo el mundo siguiendo un único modelo: el de la cultura norteamericana. De acuerdo a Frenkel y Kang, la red social no tomó “en cuenta las complejas dinámicas políticas y culturales existentes” en otras regiones.

 

La empresa no contaba con protocolos para emergencias. Ante problemas a nivel doméstico/local, se tomaron medidas “molde”, es decir que estableció un esquema y pretendió aplicarlo a cualquier situación, desde el nivel del bullying hasta el manejo de información sobre matanzas en Birmania.

 

Hasta que llegó el año 2016, Donald Trump y el escándalo de Cambridge Analytica —consultora política que tuvo acceso de forma irregular a datos de 87 millones de usuarios para tratar de influir en las elecciones de Estados Unidos y el referéndum del Brexit— fue que Facebook comenzó a determinar los parámetros sobre qué sí es válido y qué no dentro de su plataforma, aunque de forma arbitraria, poco transparente y sin darse abasto.

 

El desesperado manejo de estas crisis ha resultado en una serie de tropiezos y con un Zuckerberg sudoroso o con ojos llorosos frente al Congreso Estadounidense ofreciendo disculpas, reacción que data desde los inicios de esta red social, cuando sus compañeros universitarios sintieron que este proyecto de negocio invadía su privacidad.

 

Si Estados Unidos tiene problemas para regular una empresa estadounidense, ¿qué esperamos en otros países?

 

Facebook está por doquier intencionalmente. Ellos han impulsado en el resto del mundo una campaña agresiva para convertirse en la red social más grande del mundo. Mientras ellos son estadounidenses y el Congreso está trabajando para crear leyes y regulaciones sobre la compañía en Estados Unidos, en otros países han tomado medidas proactivas con éxito sobre Facebook. Por ejemplo, en Alemania tienen leyes contra el discurso de odio que aplicaron a Facebook para forzar a la red social a regirse por su legislación. Dijeron: “puede que no eliminen (este contenido) en Estados Unidos, pero en Alemania tienen que seguir las leyes locales y eliminarlo”.

 

Es un terreno resbaloso en el que estamos ahora, viendo a líderes populistas en todo el mundo creando leyes que los favorecen. En Brasil, Bolsonaro trabaja en leyes para que Facebook elimine todo el contenido que a él no lo muestre de forma positiva y eso es la otra cara de la moneda de que Facebook se rija con leyes locales. Un político puede decir: “Bueno, yo decidiré qué es lo que puede ver la gente”. Eso no alienta la creación de leyes democráticas.

 

Creo que hay muchos países interesados en legislar y regular Facebook para que haga un mejor trabajo. Una de las regulaciones más importantes ha sido que los países le exijan contratar a más “moderadores de contenido” para asegurarse que haya suficiente personal capaz de moderar el contenido en cierto idioma. Por ejemplo, el español es una lengua hablada por una gran cantidad de personas y Facebook no tiene suficientes moderadores de contenido que hablen español. No tenemos los números cerrados en cuanto al área hispanohablante, pero un dato que da dimensión es que Facebook destina más dinero en moderadores de contenido en Estados Unidos —para eliminar contenido que desinforma o con discurso de odio— que en India, un país que tiene más usuarios que Estados Unidos y Europa juntos. Facebook se las ha arreglado durante mucho tiempo para no destinar suficiente dinero y tiempo en otros países que no sean los Estados Unidos.

 

No tienes las cifras cerradas de moderadores de contenido en español, pero ¿podemos conocer la relación de Facebook con el gobierno mexicano?

 

Facebook no ha tenido problemas escandalosos en México, en comparación con otros países como Myanmar o la India, que se lleva los encabezados en los diarios. México no se ha destacado de esa forma porque lo agrupan con Centroamérica. (En esta zona) Facebook sólo ha tenido la actitud de “bueno, bajamos uno que otro contenido cuando sea necesario”, pero no han tenido un dolor de cabeza de Relaciones Públicas y, desafortunadamente, esa es la única forma con la que reacciona la red social. La alarma de emergencia de la empresa sólo suena cuando hay un gran problema de Relaciones Públicas. Entiendo que Facebook tiene buena relación con el gobierno mexicano.

 

Facebook tiene su propia “corte”. Sin embargo, es un estado autoritario porque todo el poder recae en una persona. ¿Esto se reflejará en el metaverso?

 

Es una muy buena pregunta, la cuestión es que aún no lo sabemos. El metaverso aún está siendo desarrollado. Mark Zuckerbeg ya estableció que él quiere un tipo específico de ingenieros. Quiere que el tipo de personas que desarrolla videojuegos sean los mismos en vigilar y establecer las normas del metaverso. Él dio esta gran presentación de 45 minutos sobre el metaverso y mencionó lo importante que es que sea seguro, pero nunca explicó cómo haría eso. No sabemos si esta experiencia realmente pueda ser muy diferente a lo que ya vivimos en Facebook e Instagram, porque ultimadamente, si la empresa no crea un metaverso con seguridad y privacidad, no sé cómo podría ser diferente.

 

Incluso podría ser peor, de acuerdo a lo que explican muchos académicos con lo que hemos hablado, pues coinciden en que si la libertad de expresión está en este estado con las redes sociales, imaginen cómo será en una experiencia 3D. Sólo puedo imaginar lo mal que estará la situación, por eso es tan importante que ahorita, antes de que el metaverso llegue a nuestras casas, discutamos cuál será el protocolo de seguridad, cómo nos vamos a asegurar de que sea una experiencia diferente para los usuarios.

 

¿Cuáles podrían ser los riesgos para la privacidad y seguridad en el metaverso?

 

El modelo de negocios de Facebook es conseguir datos de los usuarios y en este momento, tú, yo, todos, les estamos dando información al estar en sus plataformas. Pueden ver cuánto tiempo nos quedamos leyendo o viendo una imagen y con qué frecuencia interactuamos con cierto tipo de contenido. Esa información, que es muchísima, se las hacemos llegar a través del celular o la computadora, pero en el metaverso es una tecnología que estará mirándote desde tu intimidad, estará siguiendo el movimiento de tus ojos, de tus manos, involucrará cámaras en tu habitación, verá cómo es tu casa. El metaverso requiere movimientos físicos dentro de un espacio, entonces eso les daría acceso a data a la que nunca antes habían tenido acceso a través de Facebook. Así que hay muchas preocupaciones en el tema de la privacidad. ¿Cómo le va a hacer Facebook y cualquier otra compañía para que el usuario se sienta cómodo con una cámara en su habitación encendida todo el tiempo? Todos los periodistas que conozco cubren la cámara de su computadora con cinta.

 

¿Cuáles serían tus conclusiones?

 

Es interesante cuando hablas con la gente de Facebook porque muchas de sus decisiones vienen desde la perspectiva que la humanidad es inherentemente buena y que conectar al mundo es algo bueno. Hablan de que están dando una herramienta positiva al mundo y que nos dan la gran oportunidad de conectarnos entre nosotros. Viéndolo así, es un gran experimento: ¿qué hace el mundo cuando se le da la oportunidad de conectar entre todos? Y creo que Facebook es muy rápido en señalar todo lo bueno que ha hecho, que es indudable que ha ofrecido grandes oportunidades laborales en todo el mundo, pero creo que los ingenieros tienden a no prever el mal, y eso es por el optimismo tóxico que manejan en Silicon Valley. Ellos asumen que el mundo está hecho para las personas buenas, cuando realmente sólo está hecho para la humanidad, buenos y malos. Y en este gran experimento social, los malos actores han logrado tener un rol mayor porque Facebook les da la oportunidad de difundir desinformación, mentiras a las que las personas reaccionan con emociones. Cuando le das a las personas una plataforma que amplifica las emociones, amplificará lo bueno junto con lo malo y desafortunadamente reaccionamos más rápido cuando se trata de la ira, en comparación con la alegría. Así que creo que Facebook y otras empresas de Silicon Valley apenas se están dando cuenta de esto. Aún escuchamos a personas como Mark Zuckerbeg y Sheryl Sandberg afirmando que la compañía hace más bien que mal. No creo que alguien pueda ser capaz de medir eso, pero lo que estamos diciendo es que aunque el 5% de lo que suceda en Facebook no sea bueno, esa es una cifra demasiado alta, no es buena para la humanidad ni la democracia.

 

¿Cómo ha influido Facebook en nuestra sociedad, cultura y periodismo?

 

En términos de periodismo, creo que Facebook nos ofrece una ventana que antes no teníamos. Yo estudio movimientos extremistas y conspiraciones en línea, así que es una gran herramienta que nos da acceso a esa información. Aunque también ha creado este mal hábito entre periodistas de sólo buscar en línea y no salir al mundo. Uno como reportero debe ser muy cuidadoso de no sólo basarse en lo que ve en línea. También creo que le ha dado a las personas acceso a nuevas ideas. E insisto, eso es tanto bueno como malo; tanto uno puede compartir una buena campaña sobre medidas anticovid, como desinformación de la pandemia. Esta herramienta distribuye información a hipervelocidad y es algo a lo que no estábamos preparados. Y no creo que las personas hayan estado listas para la radio y la televisión, pero la velocidad con la que el internet llegó a nuestras vidas no se puede comparar con la de tecnologías anteriores.

 

Facebook nos ha dado un megáfono para las fake news. ¿En dónde está nuestra responsabilidad como usuarios?

 

Mucha es nuestra responsabilidad y nosotras tenemos esperanza de que las personas que lean nuestro libro se den cuenta de cuánto poder tienen en el acto de no amplificar la desinformación. Es decir, Facebook pone esta información en mi timeline hasta arriba porque sabe que es emotiva y que me hará reaccionar, pero es desinformación, así que no lo compartiré, me tomaré mi momento, rastrearé la fuente de la noticia. Si la comparto sin cerciorarme de que es de una fuente fidedigna, expondré a mi círculo cercano a la desinformación.
Deseo y espero, y aquí incluyo las esperanzas de muchos de los académicos con los que he trabajado, que haya más campañas educativas sobre el tema para las personas mayores. Hoy en día, las personas que crecieron con el internet es menos probable que compartan desinformación, que aquellos que no crecieron con esta herramienta. Enseñemos a nuestros padres y abuelos a usar las redes sociales porque estoy segura que más de uno ha recibido una noticia falsa en Whastapp por parte de su abuelo.

 

¿Aún usas Facebook?

 

Sí, lo hago. Lo uso mucho para el trabajo, tengo varios perfiles. Pero también, soy de Medio Oriente, llevo una década viviendo en Estados Unidos y tengo a muchos familiares y amigos viviendo allá y en otras partes del mundo. Así que sí es una gran herramienta para mantenerte en contacto con las personas. Y sí valoro a Facebook, Whatsapp e Instagram por esa razón.

 

Cecilia Kang y yo queremos hablar de este tema porque realmente creemos que Facebook es útil y llegó para quedarse, no se trata de borrar Facebook —tendencia que se ve mucho acá en Estados Unidos y Europa—. Esa no es una opción para todas las personas del mundo. Hay negocios enteros, países cuyos gobiernos operan con Facebook. Uno no puede simplemente borrar Facebook. Es importante mejorarlo, no decirle a las personas que se deshagan de él.

 

¿Piensas que pronto seremos capaces de usar Facebook correctamente?

 

Pienso que las personas están siendo más expertas en el tema, que ha aumentado la educación sobre las redes sociales. Recientemente hablé con un primo que vive en Medio Oriente y me contó que mis sobrinos tienen una clase donde se les enseña cómo identificar fake news y cómo denunciarlo; esa es la dirección a la que nos debemos dirigir.

 

La incertidumbre que aguarda el metaverso

 

Las declaraciones e información compartida por Frances Haugen, exgerente de productos de Facebook en el equipo de desinformación y delatora de la red social, en septiembre de 2021 confirmó lo que ya habían expuesto las autoras en Manipulados, cuando fue publicado por primera vez en julio de 2021: Facebook antepone sus ganancias sobre la seguridad de sus usuarios.

 

Aún con el rebranding a Meta, Zuckerberg —quien espera atraer a mil millones de cibernautas al metaverso— no logra tranquilizar a expertos sobre cómo protegerá la privacidad de sus usuarios.

 

“Cuando reúnes al internet, reúnes a personas que de otra forma estarían marginadas, ¿pero cómo haces eso sin traer comunidades con ideologías violentas? No creo que ese problema tenga solución, vienen juntos”, dijo en 2021 Andrew Bosworth, el director de tecnología de Meta, al medio Axios.

 

“Boz”, como mejor se le conoce, es un personaje destacado en Manipulados y la historia de Facebook, pues es uno de los amigos más cercanos de Zuckerberg. Es uno de los directivos de Facebook que desconocía que su empleado de seguridad había descubierto la intervención de Rusia en las elecciones de Estados Unidos de 2016. Es también autor de un polémico memorando interno donde exponía la verdad incómoda sobre Facebook: “(…) Tal vez a alguno le cueste la vida al quedar a merced de los matones. Tal vez alguno muera en un ataque terrorista coordinado por medio de nuestras herramientas. Y aun así ponemos a la gente en contacto. La cruda y fea realidad es que creemos tan profundamente en poner en contacto a la gente que todo lo que nos permita poner en contacto a más gente más a menudo es de facto algo bueno”.

 

Después de publicar este libro, ¿Zuckerberg o Sandberg las han contactado?

 

No. Nos acercamos muchas veces con ellos para hablar del libro y siempre declinaron. Después de que el libro se publicó no lo comentaron directamente, pero sí dejaron en claro que no estaban felices con éste. Supe que Mark Zuckerberg, después de la primera semana de la publicación, quiso distraer con el metaverso y empezó a hablar del tema. Ellos no quieren hablar de los problemas que abordamos en el libro. Eso fue difícil para algunos porque hablamos con muchos empleados de Facebook que aún siguen dentro de la compañía. Esperaban que con el lanzamiento de este libro sus jefes se dieran cuenta de sus preocupaciones, pero no fue así.

 

¿A quienes nos preocupa la falta de acción de Facebook somos ingenuos? Es como Coca-Cola, todos sabemos que no es saludable y es adictiva, pero al final no pasa nada porque es un negocio.

 

Me encanta que hagas la comparación con Coca-Cola porque es algo que yo suelo hacer. A lo que voy es que no podemos impedir que las personas coman dulces o beban Coca-Cola porque es disfrutable. Pero al menos hay una advertencia de que su consumo es dañino y con eso, una de diez personas cederá y los gobiernos tomarán medidas como no vender Coca-Cola en las escuelas.

 

Es una gran comparación porque creo que estamos en ese punto con las redes sociales. No le dirás a las personas que no pueden usarlas, pero sí que lo hagan responsablemente y los gobiernos tomarán medidas, como no permitir que los niños usen Facebook, y enseñarán cómo usarlas.

 

FOTO: Protesta de la organización civil SumOfUs frente al parlamento británico luego de que estudios independientes detectaran que el algoritmo de Instagram promovía desórdenes alimenticios/ Crédito de foto: Kirsty Wigglesworth/AP

« »