La trampa de Facebook

¿Por qué es tan difícil para Facebook arreglarse? Porque sus mayores problemas fluyen de su misión central de conectar a todos en el mundo.
La trampa de Facebook
La trampa de Facebook

Facebook tiene una misión clara: conectar a todos en el mundo. La claridad es buena, pero en el caso de Facebook, también ha puesto a la empresa en un aprieto porque la misión —y la visión de la empresa de crear valor a través de efectos de red— también se ha convertido en la fuente de sus mayores problemas. A medida que la empresa pasó de conectar a sus amigos existentes en línea a establecer nuevas conexiones globales (ambos ejemplos de efectos de red directos) y ahora a conectar a los usuarios con creadores profesionales (efectos de red indirectos), ha sido atacada por todo, desde violar la privacidad individual hasta acosar a pequeños las empresas como monopolio para radicalizar a sus usuarios. Ahora, está luchando por encontrar soluciones que no menoscaben su misión. El autor llama a esto «la trampa de Facebook». Para abordar los problemas creados por la plataforma, y también por otras redes sociales, ayuda a establecer claramente dónde debe rendir cuentas a la empresa. Si bien es razonable presionar para que se produzcan cambios en el funcionamiento de las recomendaciones de Facebook, es más difícil decidir cómo debe lidiar la plataforma con las conexiones orgánicas, lo que probablemente implicaría censurar a los usuarios y bloquearlos para que no hagan conexiones que quieran establecer. Facebook no es la única empresa que enfrenta el enigma de tener que socavar su propia misión de minimizar el daño, y las empresas y los gobiernos tendrán que desarrollar estrategias para tratar este problema.


Fundada en 2004, la misión de Facebook es dar a las personas el poder de construir una comunidad y acercar el mundo. Las personas usan Facebook para mantenerse en contacto con amigos y familiares, para descubrir lo que sucede en el mundo y para compartir y expresar lo que les importa.

 ― Declaración de misión de Facebook

Nuestra misión es conectar a todas las personas del mundo.

Mark Zuckerberg, CEO y cofundador de Facebook

Dependiendo de a quién le preguntes, el mayor problema de Facebook puede ser casi cualquier cosa. Los críticos han argumentado que es violando privacidad individual o acoso a pequeñas empresas como monopolio, dañar la salud mental de los adolescentes o incitar violento insurrecciones — la lista de posibilidades continúa (y sigue). Pero por muy variados que parezcan estos problemas, en realidad todos son facetas de un gran problema fundamental que nos está enfrentando a todos: los responsables políticos, el público en general y los propios empleados de Facebook.

Facebook existe para «conectar a todas las personas del mundo», como pronunciará clara y frecuentemente el propio CEO Mark Zuckerberg. A su valor nominal, no hay nada malo en ese objetivo. De hecho, es exactamente el tipo de claridad estratégica que a los profesores de estrategia les gustaría ver en más empresas. Como visión rectora del liderazgo de Facebook, este ideal aspiracional ha sido profundamente arraigado en la cultura empresarial de Facebook. Es importante destacar que conectar a las personas es la base fundamental sobre la que Facebook ha tenido tanto éxito en los últimos 15 años.

En mi curso sobre estrategia tecnológica, enseñamos a los estudiantes que el motor más importante de la creación de valor en la actualidad son los efectos de red: mi propio valor de usar Facebook, Instagram, Messenger y WhatsApp, crece a medida que otros usuarios adoptan y usan Facebook. Al cumplir su misión de conectar a las personas, Facebook facilita una gran cantidad de efectos de red que han impulsado su crecimiento orgánico y refuerza su posición dominante en las redes sociales.

Sin embargo, como todos estamos experimentando hoy, ese propósito fundamental genera innumerables impactos negativos en todas las partes de nuestra sociedad. Esa misión de conectar a las personas también está destruyendo la vida de las personas y poniendo en peligro nuestras instituciones establecidas. Facebook se enfrenta a un desafío monumental, porque solucionar estos problemas no es tan sencillo como añadir más moderadores para que estén atentos a los discursos de odio o cambiar la fuente de noticias, sino que requerirá un cambio fundamental en el objetivo estratégico central de la empresa. En ese sentido, Facebook está atrapado: los efectos de red hicieron que la empresa fuera un éxito y ahora amenazan con eliminarla, pero la empresa no puede simplemente apagar el motor que la hace funcionar. Así que, ¿qué puede hacer?

La inevitable evolución de Facebook

Seguir su objetivo principal significa que Facebook debe seguir conectando a las personas y conectándolas de formas más intensas. Puede hacer crecer la base de usuarios y conecta a más personas que de otro modo no se habrían conectado, y puede hacer que la base de usuarios existente conectar más intensamente usando más Facebook, es decir, aumentando el engagement. Ambas cosas impulsan directamente los ingresos publicitarios, el modo predominante por el que Facebook capta valor, es decir, monetiza la base de usuarios que de otro modo utiliza Facebook de forma gratuita, algo que yo han escrito sobre ello con un coautor.

El problema es que, aunque Facebook solo estuviera motivado para crear valor para los usuarios, conectando a las personas, sin ningún incentivo para captar valor a través de la publicidad, seguiría en camino al desastre. Las dificultades a las que se enfrenta son una consecuencia fundamental de conectar a las personas.

Para entender por qué, consideremos cómo ha cambiado Facebook desde sus inicios idílicos.

Viejos amigos

Inicialmente, Facebook conectó a los usuarios con su círculo social extendido de la vida real: su conexiones locales. Como millennial, me uní a Facebook en la escuela secundaria como una extensión de las amistades que ya tenía. En este mundo, Facebook facilitó efectos de red directos, o generación de contenido recíproco entre partes: creo contenido para mis amigos y mis amigos crean contenido para mí. Publicaba algunas fotos de graduación, mis amigos publicaban fotos de graduación ligeramente diferentes, y todos comentábamos lo bien que se veían todos. Incluso si alguien se veía mal en una foto, nadie escribiría eso: Todavía teníamos que vernos en la vida real.

Esta versión de Facebook tenía algunas limitaciones importantes. En primer lugar, no lo hizo realmente darme acceso a todo lo que no tenía en mi vida. Cuando me interesé por el DJ, un interés de nicho, no pude conectarme con otros DJs en Facebook, porque no tenía ninguno en mi red inmediata de amigos de la vida real. En segundo lugar, había una cantidad finita de contenido: solo hay un número limitado de fotos de graduación. En tercer lugar, los usuarios habituales no tienen los recursos para generar contenido de «alta calidad»: nadie estaba haciendo aerografía profesionalmente todas estas fotos de graduación. En este mundo, las conexiones eran relativamente débiles, en el sentido de que no se optimizan para una interacción intensa y continua que me mantenga usando Facebook.

Nuevos amigos

Facebook resolvió este problema atrayendo millones —y finalmente miles de millones— de usuarios y luego facilitando conexiones globales. De repente, gracias a los efectos de red más fuertes de una base de usuarios más amplia, los usuarios con intereses especializados podrían conectarse y alcanzar una masa crítica. Hay muchos otros DJs en Facebook e Instagram con los que conectarme.

Sin embargo, estas conexiones globales no siempre son buenas. Los usuarios con intereses peligrosos, para sí mismos y para los demás, pueden conectarse fácilmente entre sí y reforzar esos intereses. Un usuario con pensamientos suicidas ahora puede buscar consejo de otras personas con los mismos pensamientos. Un usuario con puntos de vista racistas puede optar por estar rodeado de otros racistas. Y una vez conectados, estos usuarios se reúnen en masa crítica y pueden coordinar sus actividades. Esto puede variar desde lo relativamente benigno pero aún perjudicial, como planes de marketing multinivel, a la coordinación de eventos como el ataque del 6 de enero de 2021 contra el Capitolio de los Estados Unidos, que se organizó en muchas redes sociales, pero avisadas por las comunidades en línea de usuarios atraídos por las teorías conspirativas sobre el fraude electoral.

Sin amigos

También ha ocurrido otro cambio importante. A medida que Facebook ha evolucionado, ha comenzado a depender en gran medida de efectos indirectos de red. En lugar de que sus pares generen contenido recíprocamente unos para otros, una gran base de usuarios de consumidores de contenido incentiva a los productores de contenido «profesionales» a seguir impulsando el contenido, y el contenido profesional mantiene a la gran base de usuarios en Facebook y comprometida.

Confiar en los productores de contenido profesionales para generar efectos indirectos en la red tiene varias consecuencias perjudiciales. En primer lugar, alienta a las personas de élite (celebridades o «influencers» cuasiprofesionales) a presentar una imagen corporal y un estilo de vida inalcanzables como algo normal, según la propia investigación de Facebook puede exacerbar la depresión, la ansiedad y los pensamientos suicidas en los jóvenes . En segundo lugar, profesionaliza la generación de «ciberanzuelo». Tanto las empresas de medios tradicionales como los malos actores tienen el incentivo para difunder contenido y titulares que explotar la curiosidad y la reacción emocional de los usuarios. En tercer lugar, permite a los extremistas profesionales difundir mensajes explícitamente peligrosos a gran escala. ISIS ha utilizado Facebook eficazmente para sus esfuerzos de reclutamiento compartiendo vídeos de violencia grotesca que resuenan entre los jóvenes descontento.

El desafío para Facebook, y para nosotros como sociedad, es que todo lo que Facebook puede hacer para resolver su «problema» va directamente en contra de cómo crea valor y su misión principal. En esencia, los críticos de Facebook le piden que conecte a menos personas y las conecte de manera menos intensa. Pero eso viola el espíritu central de lo que Facebook siempre se ha propuesto hacer. Este es el Trampa de Facebook.

El desafío de la responsabilidad

Entonces, ¿qué puede hacer Facebook con respecto a este problema? ¿Y cuánto de este problema podemos, como sociedad, responsabilizar a Facebook por medio de la presión pública, la política regulatoria u otros medios? Para responder a estas preguntas, consideremos el papel de Facebook a la hora de facilitar conexiones originadas por el usuario vs. conexiones de origen algorítmico.

Conexiones originadas por el usuario son las interacciones directas entre las partes que la plataforma facilitó al principio. Cuando Facebook comenzó como un registro de estudiantes universitarios de Harvard, un usuario podía desplazarse por todos los demás estudiantes y elegir conectarse con los pocos de los que el usuario quiere ver contenido. Un Facebook con solo conexiones originadas por el usuario se limitaría a conexiones bastante locales y más efectos directos de red.

Sin embargo, a medida que una plataforma escala, se hace cada vez más difícil para un usuario examinar y encontrar conexiones valiosas para él. Para garantizar que Facebook pudiera seguir conectando eficazmente a las personas, implementó conexiones de origen algorítmico. Este motor de recomendaciones utiliza los datos que los usuarios proporcionan a la plataforma para sugerir nuevos amigos y grupos y rellenar el feed de noticias y los resultados de búsqueda. Esta mano dura es necesaria para permitir que se formen conexiones globales y se produzcan efectos indirectos de red, y para brindar a los usuarios las conexiones que desean y con las que interactuarían de manera más intensa.

Por qué es importante la distinción

Separar qué problemas son el resultado de las conexiones orgánicas originadas por los usuarios frente a las conexiones originadas por algoritmos impulsadas por Facebook nos da una idea de lo que Facebook puede ser razonablemente responsable. Lamentablemente, no presenta soluciones fáciles.

Los escenarios en los que Facebook usa una mano dura para facilitar las conexiones son en los que podemos buscar legítimamente algo de responsabilidad, incluso si hacerlo va en contra de la misión de Facebook. Por ejemplo, el hecho de que los datos digan que a otros les gusta estar conectados a fiestas o contenido incendiario no significa que Facebook tenga que llamar mi atención sobre ese contenido. La decisión de no exponer a los usuarios a contenido nuevo que no habrían buscado es relativamente sencilla.

La cuestión de la responsabilidad se vuelve menos clara cuando consideramos si el motor debería recomendar conexiones que un usuario específico desea realmente, como lo revelan los datos sobre la propia actividad del usuario. La misión de Facebook implica que debe facilitar intencionalmente estas conexiones, pero estas conexiones pueden intensificar el comportamiento y la visión del mundo de un usuario. Si un usuario con inclinaciones políticas leves muestra interés en leer sobre política nacional, ¿cuánto contenido político puede recomendar Facebook antes de que se vuelva extremo o incluso peligroso? Sí, Facebook puede limitar la forma en que hace estas recomendaciones, aunque solo sea porque los usuarios individuales no pueden responsabilizarse por sí mismos, pero no hay una línea obvia en la arena para que Facebook dibuje aquí.

Pero una clara rendición de cuentas se va por completo cuando los usuarios hacen conexiones por su cuenta. Para hacer frente a las problemáticas conexiones originadas por los usuarios, Facebook tendría que censurar el contenido y prohibir a los usuarios que crean el contenido que consideramos problemático. Hay algunas líneas claras (por supuesto, la planificación explícita de la actividad violenta debería estar prohibida), pero la mayor parte del contenido potencialmente dañino cae en una enorme zona gris. Considere la zona gris oscura del contenido antivacunas: si, digamos, queremos que Facebook censure información errónea explícita, ¿qué se debe hacer con el contenido matizado y basado en pruebas que describa los efectos secundarios de una vacuna? Facebook puede ajustar su algoritmo para suprimir las recomendaciones de este contenido, pero si los usuarios están haciendo todo lo posible por encontrarlo, ¿puede o debería Facebook censurarlo? ¿Queremos que lo haga?

Es el área con la que Facebook tiene más dificultades. La compañía ha repetido ha sido inconsistente y no transparente sobre cómo censura el contenido. Zuckerberg ha intentado aplazar la responsabilidad a un panel de supervisión casi independiente, pero los críticos acusan a Facebook de no dar intencionadamente al panel los recursos o el control necesarios para hacer su trabajo de manera integral y eficaz.

Pero esta evasividad se deriva del desafío de la rendición de cuentas intrínseco a las redes sociales. Sí, podemos responsabilizar a Facebook de lo que Facebook hace todo lo posible para conectarnos. Pero, ¿podemos responsabilizar a Facebook por lo que nos salimos de nuestro camino para conectarnos? Y como empresa dedicada a conectar a las personas como misión, Facebook claramente no quiere ser responsable de las conexiones que los usuarios realmente desean, independientemente de si Facebook se la da a los usuarios o si los usuarios la encuentran ellos mismos.

¿Qué puede hacer Facebook?

Como profesor de estrategia, probablemente soy más empático con Facebook que la mayoría. Facebook tiene una estrategia de conectar a las personas que ha creado una enorme cantidad de valor, pero esa misma estrategia está metiendo a Facebook en muchos problemas hoy en día. Hay compensaciones difíciles por todos lados. Mi opinión es que no hay una solución clara, pero hay tres rutas amplias que Facebook puede seguir, potencialmente en conjunto.

Comunica las compensaciones de forma transparente.

En los esfuerzos anteriores por proyectar la responsabilidad, Facebook ha dado a entender que tiene soluciones a los problemas que crea, que en la actualidad no parece tener. Como una vía, Facebook puede ser más transparente sobre las compensaciones fundamentales que conllevan las redes sociales al publicar investigaciones que documentan problemas específicos, como la imagen corporal e Instagram, junto con su continua defensa del valor que conlleva conectar a las personas. Esta información puede guiar a los reguladores y poner a Facebook en una buena posición para llevar la regulación en una dirección favorable para la industria, y la regulación que impone requisitos de cumplimiento costosos puede ser un obstáculo para la entrada que protege a los titulares como Facebook, por ejemplo, GDPR en Europa.

Avanza la moderación, masivamente.

Para moderar exhaustivamente todo su contenido, Facebook tendría que seguir avanzando en la frontera en la detección de algoritmos de contenido indeseable y aumentar el número de moderadores humanos en un orden de magnitud (o múltiples). A partir de 2020, Facebook emplea a 15.000 moderadores humanos que ven cientos de elementos de contenido diariamente, y necesitará muchos más. Este esfuerzo costará miles de millones de dólares, y quizás lo más doloroso para Facebook, lo obligará a decidir qué contenido restringir: curar para una persona es censurar a otra. Sin embargo, ningún esfuerzo de moderación puede hacer mucho con el contenido que se ejecuta a través de comunicaciones cifradas de WhatsApp o Messenger.

Sea responsable, de manera apropiada.

Facebook necesita límites claros sobre qué aspectos de su plataforma quiere (y puede ser) responsable y delegar claramente la responsabilidad a gobiernos, agencias independientes y usuarios donde no lo hace. En las conexiones originadas por algoritmos, será poco práctico delegar la responsabilidad en lo que a menudo es un proceso de caja negra, y esta tecnología es una pieza fundamental de la propiedad intelectual de Facebook, por lo que Facebook debe estar preparado para asumir la responsabilidad de las conexiones que promueve ese algoritmo.

Pero en cuanto a las conexiones originadas por los usuarios con contenido indeseable, Facebook no ha tenido claro quién es responsable aquí. La Junta de Supervisión casi independiente mueve a Facebook hacia esta dirección de delegar responsabilidades, pero sigue siendo evasiva e incompleta: la junta solo revisa las decisiones de contenido de Facebook después del hecho en apelación, y la junta sigue dependiendo financieramente de Facebook y es demasiado pequeña para operar a escala.

En el futuro, Facebook puede asumir una responsabilidad genuina aumentando masivamente sus propios esfuerzos de moderación; otorgar esa responsabilidad pública y creíblemente a una autoridad externa; o dejar esa responsabilidad en manos de usuarios individuales adoptando una posición y luchando por su misión original de conectando a las personas libremente como quieran. En este momento, Facebook está haciendo las tres cosas de manera ambigua, sin dejar a nadie responsable al final del día.

Más grande que Facebook

Facebook sirve como un pararrayos conveniente para la ira, pero Facebook podría desaparecer de la faz de la tierra mañana y seguiremos enfrentando estos problemas una y otra vez. La trampa de Facebook es intrínseca a las redes sociales en su conjunto y refleja las consecuencias de la tecnología digital que facilita un mundo más conectado.

Twitter ha evolucionado en el mismo camino que Facebook hacia el uso de algoritmos para conectar a las personas a nivel mundial, lo que ha impartido muchas de las mismas consecuencias adversas que Facebook. Snap (chat), originalmente dependiente de conectar amigos, rediseñó drásticamente su plataforma para generar efectos de red indirectos que aumentan la cantidad de tiempo que los usuarios pasan viendo contenido profesional. TikTok se ha convertido rápidamente en una potencia mediante el uso de sus mejores algoritmos para conectar a los usuarios con el contenido más atractivo a nivel mundial sin tener que crear desde una red de amigos de la vida real.

Todos tenemos que tener en cuenta las consecuencias de lo que significa conectar a más personas de forma más intensa. Para hacerlo, y superar esta trampa en la que nos encontramos, Facebook y todas las plataformas de redes sociales de hoy (y por venir) necesitan tener una idea clara de lo que serán responsables. Es hora de que estas empresas, junto con los gobiernos y los usuarios, aborden la trampa de Facebook de frente.


  • Andy Wu is an Assistant Professor in the Strategy Unit at Harvard Business School and a Senior Fellow at the Mack Institute for Innovation Management at the Wharton School of the University of Pennsylvania. He researches, teaches, and advises managers on entrepreneurial strategy for technology ventures.
  • Related Posts