Recientemente una organización sin fines de lucro presentó demandas a Google y Apple exigiendo eliminar Telegram de sus tiendas. Según la ONG el mensajero de Pavel Durov se utiliza para difundir declaraciones extremistas y la plataforma no tiene herramientas de moderacion de contenido adecuadas.

Los hechos que rodearon el ataque al Capitolio a principios de enero no solo causaron una gran resonancia en la arena política, sino que también llevaron a acciones radicales por parte de las empresas de Internet. Debajo del “banhammer” estaban las cuentas del presidente de Estados Unidos, Donald Trump, sus seguidores y toda la red social Parler.

Apple y Google la acusaron de moderación insuficiente del contenido generado por los usuarios. Según los gigantes de las tecnologías de la información, la red social permite la propagación de llamadas a la violencia sin obstáculos. Como resultado, las corporaciones lo eliminaron de sus tiendas.

Ataque al Capitolio
Foto: Julio Cortez / AP

Después de eso comenzaron a aparecer rumores en la web de que un destino similar podría correr Telegram, que se ha ganado una reputación similar a Parler como plataforma gratuita, en la que se permite un poco más que en otras plataformas populares como Facebook, Twitter o YouTube.

Sin embargo, aún no se ha seguido ninguna acción por parte de Apple y Google con respecto a Telegram. Esto llevó a cierta organización estadounidense sin fines de lucro Coalition for a Safer Web a presentar demandas en su contra exigiendo que Telegram sea eliminado de las tiendas de aplicaciones por la misma razón por la que se desinstaló la aplicación Parler. Es decir, por la distribución de contenido extremista, neonazi, antisemita y de otro tipo, así como de llamadas a la violencia, que la empresa propietaria del mensajero supuestamente se niega a moderar.

Tecno Geek ha investigado la situación y descubrió que en este momento no hay ninguna razón justificada para la suspensión de Telegram. Más específicamente, las posibilidades de que la Coalición por una Web más segura gane casos contra Apple y Google son cercanas a cero. ¿Por qué? Voy a explicartelo.

# 1. No hay precedentes judiciales para eliminar Telegram

En el ámbito de la interacción entre las autoridades (en este contexto, específicamente las estadounidenses), propietarios de plataformas online, desarrolladores y usuarios, se ha desarrollado una situación interesante en la que las empresas de Internet tienen la mayor influencia en el destino de las aplicaciones y las cuentas de los usuarios. Apple y Google, por ejemplo, deciden qué reglas deben seguir los desarrolladores para mantener su aplicación en la App Store, Facebook y Twitter deciden qué mensajes y acciones de los usuarios son apropiados y cuáles no.

En este caso no necesitan ninguna decisión judicial y esto simplemente molestó extremadamente a Donald Trump, cuyas publicaciones a menudo recibieron ciertas marcas o fueron completamente eliminadas de las redes sociales. Por qué se ha desarrollado tal situación en los Estados Unidos, lo discutiremos a continuación, pero aquí recordemos los últimos precedentes con la eliminación o no eliminación de aplicaciones de las tiendas.

Epic Games vs Apple

Una captura del video lanzado por Epic Games contra el monopolio de Apple
Imagen del video que Epic Games trolleó a Apple

Uno de los ejemplos más destacados de los últimos tiempos involucra a Epic Games. Sin pasar por las reglas de la tienda construyó un método de pago directo en Fortnite que evitaba los sistemas de pago de los propietarios de la plataforma. Todo con el fin de no pagarles una comisión del 30%. Obviamente, Fortnite se eliminó inmediatamente de la App Store y Google Play. Luego comenzó una demanda que se prolongó durante meses y queda por ver a dónde les va llevar. Ten en cuenta que Fortnite fue eliminado por iniciativa de Apple y Google, y no bajo ninguna ley u orden judicial.

Parler

Parler, que es importante, también ha sido eliminado de la App Store y Google Play por iniciativa de Apple y Google. No como resultado de alguna batalla legal. El caso es que las empresas obligan a cada servicio social:

  • Tener su propio mecanismo de moderación;
  • Brindar la oportunidad de reportar al contenido por los propios usuarios y tomar una decisión sobre su admisibilidad o inadmisibilidad.

Este requisito no implica una prohibición estricta sobre la aparición de tal o cual contenido en la red social. En principio solo se necesita un mecanismo de filtrado que sea claro y suficiente a juicio del propietario de la plataforma. Al final resultó que Parler no lo tenía en absoluto, lo que llevó a su suspensión.

Una captura de Parler en App Store
Red social Parler

En cuanto a la remoción de solicitudes a través de los tribunales, aquí todo es muy difícil. El ejemplo más llamativo son las afirmaciones de la administración Trump contra TikTok y WeChat con la decisión adicional de la Cámara de Comercio de Estados Unidos de prohibir la distribución de estas aplicaciones chinas “debido a una amenaza a la seguridad nacional”. En el otoño de 2020, TikTok y WeChat lograron bloquear esta decisión a través de un tribunal. El juez la encontró inconsistente con la Primera Enmienda de la Constitución de los Estados Unidos, que garantiza la libertad de expresión

Es decir, a pesar de la autoridad del iniciador de la remoción en la persona de la Cámara de Comercio de Estados Unidos y la amenaza a la seguridad nacional señalada por ésta y la administración Trump, el tribunal no permitió que las aplicaciones chinas desaparecieran de la App Store y Google Play.

Pero volvamos a Telegram. Por el momento el mensajero de Durov no viola ninguna de las reglas de App Store y Google Play. Además, cuenta con un sistema de moderación de contenido generado por el usuario. Este en su caso cumple con los requisitos de Apple y Google.

# 2. La ley estadounidense garantiza la libertad de expresión y exime a las empresas de Internet de la responsabilidad por la información publicada por los usuarios.

Cualquier restricción al acceso a los servicios sociales es, entre otras cosas, la cuestión del cumplimiento de esta decisión con la Primera Enmienda de la Constitución de los Estados Unidos. Como ya hemos descubierto, incluso una amenaza a la seguridad nacional no puede dar a las autoridades un 100 % oportunidad para invadir la libertad de expresión.

Sin embargo, existe otra regulación legal en los Estados Unidos que evita que las aplicaciones sean bloqueadas debido a las acciones del usuario. Esta es la denominada “Sección 230“, que es una disposición de la Ley de Ética de las Comunicaciones de 1996. Tiene solo 24 palabras y dice:

Ni el proveedor ni el usuario del servicio informático interactivo se consideran editor o portador de ningún contenido proporcionado por otro proveedor de contenido.

En pocas palabras, los propietarios de plataformas, servicios u otros recursos de Internet no son responsables de ningún contenido publicado por los usuarios.

Es el hecho de la existencia de esta ley lo que ha llevado a que los propietarios de plataformas tengan la mayor influencia en el destino de las aplicaciones y cuentas de usuario. Son ellos, no el estado, quienes crean las reglas y se aseguran de que las respeten.

una foto de Donald Trump en una de sus entrevistas
Foto: Evan Vucci / Associated Press

Donald Trump no estuvo de acuerdo con esta disposición en la primavera de 2020. Sus publicaciones inesperadamente para él recibieron en Twitter marcas poco confiables. Por ello, en mayo de 2020, incluso firmó un decreto que modifica el artículo 230 para descartar el “sesgo político” de las redes sociales que repetidamente “censuraba” sus publicaciones. Por supuesto, ahora este decreto no existe por lo que el enlace no funciona.

Las principales empresas estadounidenses de Internet condenaron esta decisión. Por ejemplo, Twitter calificó el nuevo decreto de “reaccionario y politizado”. Facebook señaló que la cancelación o ajuste de la sección incrementará las restricciones a la libertad de expresión en Internet. Por lo tanto, ha considerado que las redes sociales tendrán que “censurar todo lo que pueda ofender a cualquiera”. Google también criticó el decreto, diciendo que el cambio en la ley dañaría la economía estadounidense y su estatus como líder mundial en libertad de Internet. Libertad en Internet en EE.UU., qué ingenuo suena esto en nuestro tiempo. Incluso me cuesta escribir sobre ello sin reirme.

A principios de 2021, se supo que el Senado no permitió que el decreto entrara en vigencia. La “Sección 230” se conservó en su forma original.

De esto se deduce que es simplemente imposible eliminar Telegram de la App Store y Google Play por razones relacionadas con el contenido generado por el usuario.

#3. Apple y Google no tienen la obligación de proteger a los usuarios de la “angustia emocional”

El jefe de la Coalición por una Web más segura, Mark Ginsburg, en una demanda contra Apple, afirma que, como es judío, el contenido antisemita en Telegram lo pone en peligro. Al mismo tiempo, la propia Apple al permitir Telegram en la App Store por negligencia le provoca daño emocional. Como comprador de iPhone, Ginsburg cree que tiene derecho a exigir que Apple se adhiera a sus términos de servicio, que prohíben el discurso de odio y la incitación a la violencia en las aplicaciones.

Sin embargo, Apple y Google no deben proteger a los usuarios del contenido generado por el usuario que pueda alterarlos emocionalmente, ya sea por ley o por cualquier obligación. Esto es bastante lógico, porque nunca se sabe qué pensará al mirar el usuario su iPhone…

Además, el usuario normal de iPhone carece de estatus legal para interferir en la relación entre Apple y los desarrolladores, para exigir el cumplimiento de cualquier condición entre ellos y, más aún, para censurar contenido.

De una forma u otra, a pesar de las afirmaciones de Ginzburg, Apple y Google están bien protegidos de las reclamaciones de la Coalición por una Web más segura por la “Sección 230”: el contenido supuestamente ofensivo para Ginzburg no fue creado por Apple, Google o Telegram, sino los usuarios finales del mensajero alojado en la App Store y Google Play. Resulta que prácticamente no hay posibilidad de que una organización sin fines de lucro gane casos contra estos dos gigantes de TI.

En general, no debe preocuparse por eliminar Telegram de las tiendas de aplicaciones. Por ahora.

  • El equipo de Pavel Durov cumple con las reglas de App Store y Google Play. Modera el contenido generado por el usuario al nivel requerido por las plataformas.
  • Apple y Google no están comprometidos a proteger a sus usuarios de la “angustia emocional”. Eso sería un truco de marketing interesante para un nuevo iPhone o Galaxy.
  • Estados Unidos tiene la Primera Enmienda y la Sección 230.

Así que lo más probable es que Telegram no va a repetir el destino de Parler.

Portada: Tecno Geek