Es hora de actualizar la sección 230

Internet ha cambiado mucho desde que se aprobó la Ley de Decencia de Comunicaciones en 1996.
Es hora de actualizar la sección 230
Es hora de actualizar la sección 230

Resumen.   

Hace un cuarto de siglo, en el artículo 230 de la Ley de Decencia de Comunicaciones de 1996, el Congreso implementó protecciones de «puerto seguro» contra la responsabilidad legal de cualquier contenido que los usuarios publiquen en plataformas de redes sociales. Estas plataformas ofrecen muchos beneficios, por supuesto, pero desde 1996 hemos aprendido cuánta devastación social pueden provocar también. Lo que hemos aprendido, escriben los autores, deja claro que la Sección 230 está desactualizada desesperadamente y necesita actualizarse, para responsabilizar a las plataformas de redes sociales de cómo se diseñan e implementan sus sitios.


Las plataformas de redes sociales de Internet reciben amplias protecciones de «puerto seguro» contra la responsabilidad legal de cualquier contenido que los usuarios publiquen en sus plataformas. Esas protecciones, descritas en el artículo 230 de la Ley de Decencia de Comunicaciones (CDA) de 1996, se escribieron hace un cuarto de siglo durante una edad de ingenuo hace mucho tiempo. optimismo tecnológico y capacidades tecnológicas primitivas. Tanto ha cambiado desde principios de siglo que esas protecciones están desactualizadas desesperadamente. Es hora de repensar y revisar esas protecciones, y de todos los líderes cuyas empresas confían en plataformas de Internet para comprender cómo podrían verse afectados sus negocios.

Las plataformas de redes sociales proporcionan beneficios sociales innegables. Dieron voz democrática a los oprimidos durante la Primavera Árabe y una plataforma para los movimientos # MeToo y #BlackLivesMatter. Ayudaron a recaudar 115 millones de dólares para ALS con el Ice Bucket Challenge, y ayudaron a identificar y coordinar el rescate de las víctimas del huracán Harvey.

Pero también hemos aprendido cuánta devastación social pueden causar estas plataformas, y eso nos ha obligado a enfrentar preguntas antes inimaginables sobre la rendición de cuentas. ¿Hasta qué punto Facebook debe rendir cuentas de los disturbios del Capitolio, gran parte de la planificación que tuvo lugar en su plataforma? ¿Hasta qué punto Twitter debe rendir cuentas para permitir el reclutamiento de terroristas? ¿Cuánta responsabilidad debería Backpage y Pornhub para facilitar la explotación sexual de los niños? ¿Qué pasa con otras plataformas de redes sociales que se han beneficiado de la venta ilícita de productos farmacéuticos, armas de asalto y vida silvestre en peligro de extinción? El artículo 230 simplemente no anticipaba tales preguntas.

La sección 230 tiene dos subsecciones clave que rigen las publicaciones generadas por los usuarios. El primero, el artículo 230 (c) (1), protege a las plataformas de la responsabilidad legal relacionada con el contenido nocivo publicado en sus sitios por terceros. El segundo, el artículo 230 (c) (2), permite a las plataformas vigilar sus sitios en busca de contenido dañino, pero no requiere que eliminen nada, y los protege de la responsabilidad si deciden no hacerlo.

Estas disposiciones son buenas, excepto las partes que son malas.

Lo bueno es bastante obvio. Debido a que las plataformas de redes sociales generan beneficios sociales, queremos mantenerlas en el negocio, pero es difícil de imaginar si son responsables instantáneamente e irreversiblemente de cualquier cosa y de todo lo publicado por terceros en sus sitios. El artículo 230 c) (1) se puso en marcha para abordar esta inquietud.

El artículo 230 c) (2), por su parte, se puso en marcha en respuesta a un Sentencia judicial de 1995 declarando que las plataformas que vigilaban cualquier el contenido generado por los usuarios en sus sitios debe considerarse editores de — y, por lo tanto, legalmente responsables de — todos del contenido generado por el usuario publicado en su sitio. El Congreso cree acertadamente que el fallo haría que las plataformas no deseen vigilar sus sitios por contenido socialmente perjudicial, por lo que aprobó 230 (c) (2) para alentarlos a hacerlo.

En ese momento, parecía un enfoque razonable. Pero el problema es que estas dos subsecciones están en conflicto. Cuando otorgas a las plataformas una inmunidad legal completa para el contenido que publican sus usuarios, también reduce sus incentivos para eliminar de forma proactiva el contenido que causa daños sociales. En 1996, eso no parecía importarle mucho: aunque las plataformas de redes sociales tuvieran incentivos legales mínimos para proteger su plataforma de contenidos nocivos, parecía lógico que lo hicieran por interés económico propio, para proteger sus valiosas marcas.

Digamos que hemos aprendido mucho desde 1996.

Algo que hemos aprendido es que subestimamos significativamente el costo y el alcance del daño que pueden causar las publicaciones en las redes sociales. También hemos aprendido que las plataformas no tienen incentivos lo suficientemente fuertes como para proteger sus marcas controlando sus plataformas. De hecho, hemos descubierto que proporcionar contenido dañino para la sociedad puede ser económicamente valioso para los propietarios de plataformas, al tiempo que representa relativamente poco daño económico a su imagen pública o marca.

Hoy existe un consenso creciente de que necesitamos actualizar la sección 230. Mark Zuckerberg de Facebook incluso dijo al Congreso que «puede tener sentido que haya responsabilidad por parte del contenido» y que Facebook «se beneficiaría de una orientación más clara de los funcionarios electos». Los funcionarios electos, a ambos lados del pasillo, parecen estar de acuerdo: Como candidato, Joe Biden dijo al New York Times que el artículo 230 debe ser «revocado inmediatamente», y la Senadora Lindsey Graham (R-SC) ha dicho: «El artículo 230 tal como existe hoy tiene que ceder». En una entrevista con NPR, el ex congresista Christopher Cox (R-CA), coautor de la Sección 230, ha pedido que se reescriba la sección 230, porque «el propósito original de esta ley era ayudar a limpiar Internet, no facilitar que la gente hiciera cosas malas».

¿Cómo se puede reescribir la sección 230? Los académicos jurídicos han presentado una variedad de propuestas, casi todas las cuales adoptan un enfoque de zanahoria y palo, vinculando las protecciones de puerto seguro de una plataforma a su uso de políticas razonables de moderación de contenido. Un ejemplo representativo apareció en 2017, en un Revisión de leyes de Fordham artículo de Danielle Citron y Benjamin Wittes, quienes argumentaron que la Sección 230 debería revisarse con los siguientes cambios (destacados): «Ningún proveedor ni usuario de un servicio informático interactivo que adopta medidas razonables para hacer frente a los usos ilegales conocidos de sus servicios que provocan daños graves a otros se tratará como el editor o el orador de cualquier información proporcionada por otro proveedor de contenido de información. en cualquier acción derivada de la publicación de contenido proporcionado por dicho proveedor de contenido de información.”

Este argumento, del que el propio Mark Zuckerberg se hizo eco testimonio dio al Congreso en 2021, está vinculado al estándar de common law de «deber de cuidado», que el Revista American Affairs tiene descrito según se indica a continuación:

Normalmente, las empresas tienen el deber de common law de tomar medidas razonables para no causar daño a sus clientes, así como de tomar medidas razonables para evitar daños a sus clientes. Este deber también crea una obligación afirmativa en determinadas circunstancias para que una empresa impida que una parte que utiliza los servicios de la empresa perjudique a otra parte. Por lo tanto, las plataformas podrían considerarse culpables en virtud del common law si creaban de forma irrazonable un entorno inseguro, así como si no impiden de manera irrazonable que un usuario dañe a otro usuario o al público.

Los tribunales han comenzado recientemente a adoptar esta línea de pensamiento. En una decisión del 25 de junio de 2021, por ejemplo, el Tribunal Supremo de Texas dictaminó que Facebook no está protegido por la Sección 230 para el reclutamiento de trata de sexo que se produce en su plataforma. «No entendemos que la Sección 230 «cree un terreno de nadie sin ley en Internet», escribió el tribunal. «Responder a las plataformas de Internet por las palabras o acciones de sus usuarios es una cosa, y el precedente federal dicta uniformemente que el artículo 230 no lo permite. Habilitar que las plataformas de Internet rindan cuentas de sus propias fechorías es otra cosa. Este es particularmente el caso de la trata de personas».

El estándar de deber de atención es bueno, y los tribunales están avanzando hacia él al responsabilizar a las plataformas de redes sociales de cómo se diseñan e implementan sus sitios. Siguiendo cualquier norma razonable de deber de atención, Facebook debería haber sabido que debía tomar medidas más firmes contra el contenido generado por los usuarios que aboga por el derrocamiento violento del gobierno. Del mismo modo, Pornhub debería haber sabido que vídeos sexualmente explícitos etiquetados como «14yo» no tenía cabida en su sitio.

No todo el mundo cree en la necesidad de una reforma. Algunos defensores de la Sección 230 sostienen que, tal como está redactado actualmente, permite la innovación, porque las startups y otras pequeñas empresas podrían no tener recursos suficientes para proteger sus sitios con el mismo nivel de atención que, por ejemplo, Google. Pero la norma del deber de atención abordaría esta preocupación, porque lo que se considera una protección «razonable» para una corporación de miles de millones de dólares, naturalmente, será muy diferente de lo que se considera razonable para una pequeña startup. Otra crítica de la reforma del artículo 230 es que va a sofocar la libertad de expresión. Pero eso simplemente no es cierto: Todas las propuestas de deber de atención sobre la mesa hoy abordan contenido que es no protegida por la Primera Enmienda. No hay protecciones de la Primera Enmienda para el discurso que induzcan daños (gritando falsamente «fuego» en un teatro lleno de gente), fomente la actividad ilegal (aboga por el derrocamiento violento del gobierno) o que propaguen ciertos tipos de obscenidad (material de abuso sexual infantil) . *

Las empresas tecnológicas deberían aceptar este cambio. A medida que la interacción social y comercial se mueve cada vez más en línea, los bajos incentivos de las plataformas de redes sociales para frenar los daños están reduciendo la confianza pública, lo que dificulta que la sociedad se beneficie de estos servicios, y más difícil que las empresas legítimas en línea se beneficien de proporcionarlos.

La mayoría de las plataformas legítimas tienen poco que temer de que se restablezca el deber de atención. Gran parte del riesgo se deriva del contenido generado por los usuarios, y muchas empresas en línea alojan poco o ninguno de esos contenidos. La mayoría de las empresas en línea también actúan de manera responsable y, en tanto ejerzan un deber de atención razonable, es poco probable que se enfrenten a un riesgo de litigio. Y, como se ha señalado anteriormente, las medidas razonables que se espera que adopten serían proporcionales a los riesgos y recursos conocidos de su servicio.

Lo que los buenos actores tienen que ganar es una delimitación más clara entre sus servicios y los de los malos actores. Un estándar de deber de cuidado solo hará rendir cuentas a aquellos que no cumplen el deber. Por el contrario, una intervención regulatoria más amplia podría limitar la discrecionalidad de todas las empresas e imponer costes, independientemente de que actúen de forma responsable o no. Las probabilidades de imponer una regulación tan amplia aumentan cuanto más persistan los daños de los malos actores. El artículo 230 debe cambiar.

*Nota del editor (15/8/21): Esta frase se ha actualizado para añadir la palabra «falsamente».


  • MS
    Michael D. Smith is the J. Erik Jonsson professor of information technology and marketing at Carnegie Mellon’s Heinz College and Tepper School of Business.

  • MA
    Marshall Van Alstyne is the Questrom Professor of Information Economics at the Boston University Questrom School of Business.
  • Pathbooks

    Lee un
    bestseller en

    10 minutos

    Cada viernes, recibe un libro de negocios y carrera resumido en 10 minutos.

    (puedes darte de baja cuando quieras)