Si ha estado siguiendo las noticias en los Estados Unidos durante el último año, ha habido un gran alboroto sobre algo llamado «Sección 230», y aunque todos parecen tener una opinión al respecto, hay muy poca discusión sobre el contexto en el que la ley surgió o lo que realmente hace.
En su mayor parte, el debate giró en torno a si las empresas de redes sociales como Twitter y Facebook están cumpliendo con la ley o si la ley debe ajustarse para encajar en el contexto de los tiempos actuales con el poder que tienen estas empresas para dirigir las discusiones de sus usuarios. .
Para comprender completamente por qué la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996 es tan importante, es importante explorar qué es, qué trata y por qué surgió en primer lugar.
Volviendo a 1934
Franklin D. Roosevelt había sido presidente durante poco más de un año cuando intentaba encontrar una manera de desenredar la burocracia que regula la comunicación por radio de una manera que agiliza todo en una sola comisión. Poco después de que esta iniciativa fuera llevada al Congreso, firmó la Ley de Comunicaciones de 1934, eliminando las viejas burocracias y estableciendo la Comisión Federal de Comunicaciones.
El propósito de todo esto, según la ley, es “regular el comercio interestatal y exterior en las comunicaciones por cable y radio” para hacer reglas claras y fáciles de entender, provenientes de un solo órgano de gobierno.
Desde ese momento, la FCC ha sido la autoridad competente y reguladora de la radio, la televisión e incluso Internet.
Sin embargo, ese último no se basa en el estilo de transmisión típico que asociamos con los otros dos. Esto se convirtió en un problema incluso a principios de los 90, cuando Internet aún estaba en su infancia. Dado lo diferente que funciona Internet, permitiendo que casi cualquier persona tenga su propia tribuna y democratizando el flujo de información, no se puede esperar que los principios operativos de la FCC sean compatibles o incluso lo suficientemente flexibles como para permitirle prosperar.
Se necesitaba un cambio, y se produjo durante la administración Clinton en la forma de la Ley de Telecomunicaciones de 1996.
El nacimiento de la regulación de Internet
Aunque se han hecho varios intentos para regular Internet en los Estados Unidos, nada llegó tan cerca como la Ley de Telecomunicaciones de 1996. Dentro de la ley había una sección conocida como Título V. Algunos pueden conocer esto como la Ley de Decencia en las Comunicaciones.
Cuando se aprobó por primera vez, la CDA fue el primer gran intento del Congreso para limitar «Obscenidad, indecencia o desnudez» en todos los métodos de transmisión, incluida Internet. Esta ley finalmente fue derogada por la Corte Suprema un año después y revisada para eliminar esa parte en particular.
Sin embargo, aún permanece en la ley una disposición interesante conocida hoy como el «puerto seguro», o Sección 230 (c) (2). En virtud de esta disposición, los proveedores de contenido en Internet pueden realizar «cualquier acción […] de buena fe para restringir el acceso o la disponibilidad del material que el proveedor […] considera que es obsceno, lascivo, lascivo, excesivamente violento, acosador o de otra manera objetable, ”Independientemente de las disposiciones constitucionales relativas a la libertad de expresión.
Dónde entran las redes sociales
En la forma que adoptó cuando fue aprobada en 1996, la ley intentaba afirmar el derecho de los «servicios informáticos interactivos» a moderar su contenido, eliminando las cosas que las personas publican que son posiblemente viles por naturaleza o «perjudiciales para los menores» (como se estipula más adelante en el apartado d). Pero, ¿esto también permite que las plataformas de redes sociales conserven en gran medida los mensajes publicados por sus usuarios?
Esta es la gran pregunta que plantean los debates que comenzaron en 2020, pero es posible que se sorprenda al descubrir que no es una pregunta nueva. De hecho, la Sección 230 se redactó específicamente para hacer una distinción entre los editores que seleccionan su contenido y los distribuidores de contenido (plataformas).
En 1997, solo un año después de la promulgación de la CDA, la Corte de Apelaciones del Cuarto Circuito falló a favor de AOL cuando alguien intentó responsabilizar a la empresa por una de las publicaciones de sus usuarios.
Esto se produjo como resultado del párrafo de la Sección 230 anterior al mencionado anteriormente, que establece: “Ningún proveedor o usuario de un servicio informático interactivo será tratado como editor o portavoz de cualquier información proporcionada por otro proveedor de contenido de información.«
En términos sencillos, esto significa: “Si eres una plataforma y uno de tus usuarios decide decir algo escandaloso o (relevante para el caso AOL) publicar información difamatoria a través de tu servicio, no eres legalmente responsable de lo que hizo ese usuario. «
Servicios como Telegram, Whatsapp, Facebook, Twitter y muchos otros estarían en serios problemas si este no fuera el caso. La información filtrada y difamatoria por parte de personas que actúan por su propia cuenta pasa por esos servicios todo el tiempo. La historia no es la misma para los sitios del New York Times, The Miami Herald y otros periódicos porque son editores y, por lo tanto, se espera que seleccionen su contenido.
El debate
Aquí es donde las cosas se ponen bastante complicadas. Ya hemos establecido que la Sección 230 tenía la intención de hacer una distinción entre editores y plataformas, pero ¿qué sucede cuando Twitter decide castigar severamente a las personas que expresan ideas que son consideradas objetables por la mayoría de su base de usuarios?
Los sitios de redes sociales, los mensajeros, lo que sea que sea Reddit ahora, e incluso los foros de Steam, disfrutan de las libertades de ser plataformas, lo que los hace casi inmunes a los litigios cuando sus usuarios se involucran en una mala conducta civil. Su única obligación real es eliminar el contenido que sea ilegal (como los mensajes de los usuarios que anuncian la venta de drogas recreativas). Pero cuando asumen voluntariamente la tarea de un editor eliminando otras ideas, posiblemente parodias ofensivas, humor y mentiras irónicas o poco irónicas, ¿siguen actuando como una plataforma?
Por un lado, la respuesta es «sí». La desafortunada verdad del asunto es que la Sección 230 es bastante vaga sobre qué plataformas pueden eliminar. Usando palabras como «sucio» y «objetable», es fácil justificar la eliminación de casi cualquier cosa que no sea alguien que habla sobre el clima el domingo mientras disfruta de los privilegios de puerto seguro.
Por otro lado, los intentos constantes de curar contenido más allá del límite social de lo que se consideraría «eliminar contenido vil de buena fe» hace que algunas de estas empresas se comporten como editores.
Al final, la pregunta real a la que actualmente no tenemos una respuesta clara es: «¿Las empresas de redes sociales que curan el discurso político tienen la capacidad, según la Sección 230, de continuar llamándose a sí mismas plataformas neutrales para sus usuarios?»
Y si pierden la protección de puerto seguro, ¿cómo hacemos para que este precedente legal no reprima el crecimiento de empresas advenedizas que potencialmente podrían competir con estos sitios más grandes y establecidos?
¿Qué piensas de esto? ¿Vale la pena tener este debate? ¿La sección 230 de la CDA va lo suficientemente lejos como para hacer una distinción adecuada entre editor y plataforma? ¡Cuéntanos tus pensamientos abajo! Mientras tanto, consulte también la regulación GDPR y cómo le afecta.