Un proyecto de ley australiano ataca la desinformación perjudicial en Internet, pero afecta a la libertad de expresión en todo el mundo
David Inserra indica que las empresas pueden intentar cumplir estas normas sólo en Australia, pero esto supone un conjunto cada vez más fragmentado de políticas y procedimientos empresariales para gestionar la normativa de Australia y, al mismo tiempo, de leyes similares establecidas en otras jurisdicciones, como la Ley de Servicios Digitales de la UE.
Por David Inserra
A mediados de septiembre, Australia presentó su proyecto revisado de Ley 2024 para Combatir la Desinformación, y le faltan unos dos bocadillos para ser un picnic. El proyecto de ley parece inspirarse en parte en la Ley de Servicios Digitales de la Unión Europea (UE) en lo que respecta a la creación de importantes responsabilidades y reglamentos. Y si el pasado es prólogo, lo que ocurre en Australia no se queda en Australia, como cuando Australia aprobó su proyecto de ley de "impuesto sobre los enlaces", que gravaba a las empresas de medios sociales cuando los usuarios compartían enlaces a artículos de noticias. Este impuesto se extendió a Canadá y se ha estudiado activamente en Estados Unidos. Canadá también está considerando replicar la Comisión de Seguridad Electrónica de Australia, a pesar de varios casos de extralimitación censora significativa.
Pero sea cual sea el fundamento o la historia, este proyecto de ley no sólo restringirá la libertad de expresión de los australianos y su acceso a diferentes servicios en línea, sino que su influencia puede extenderse y amenazar también la expresión de los estadounidenses.
Veamos primero cómo define el proyecto de ley la desinformación intencional y la desinformación no intencional, todo un reto para cualquier proyecto de ley u organización en este campo. El proyecto de ley define la desinformación como el contenido que es
- "razonablemente verificable como falso, engañoso o equívoco"; y
- "es probable que cause o contribuya a causar daños graves".
La definición también da cabida a la sátira y la parodia, los contenidos informativos profesionales y la difusión "razonable" de contenidos por motivos "académicos, artísticos, científicos o religiosos". La desinformación utiliza la misma definición y añade que debe haber motivos para sospechar que el contenido se ha compartido con la intención de engañar a otros o implica un comportamiento no auténtico.
Estas definiciones por sí solas darían para varios blogs, pero me centraré en tres puntos:
- ¿Qué es verificablemente engañoso? Hay afirmaciones que son objetivamente verdaderas o falsas porque podemos verificarlas mediante pruebas y lógica que cualquiera puede interrogar. Pero, ¿cómo se verifica objetivamente que algo es engañoso? El contenido engañoso implica omitir cierto contexto, seleccionar datos, predecir posibles resultados futuros basándose en una cantidad limitada de pruebas, entremezclar opiniones y hechos, etc. La inducción a error, por tanto, tiene que ver con las diversas formas en que debatimos y discutimos los temas, a menudo basándonos en información incompleta, opiniones y determinando cómo sopesar diversos factores y argumentos entre sí. En otras palabras, lo que se considera o no engañoso es a menudo muy subjetivo: por ejemplo, algunos consideran que la CNN es un periodismo duro y justo, mientras que otros creen que es muy tendencioso y engañoso. Lo mismo ocurre con Fox News, el Washington Post, el New York Post, Joe Rogan, el Daily Wire, los Young Turks y cualquier otra organización expresiva. Pero estas opiniones se basan a menudo en evaluaciones subjetivas de lo bien que estas organizaciones interrogan a las pruebas, destacan puntos de vista alternativos, y proporcionan el contexto y el marco correctos a su discusión de los acontecimientos actuales.Para el gobierno afirmar que la desinformación basada en el engaño subjetivo puede ser verificada objetivamente es una contradicción fundamental. Lo que el gobierno está afirmando aquí es que su visión de lo que es engañoso es correcta, lo que garantiza un sesgo significativo en la forma en que se vigilará la desinformación.
- ¿Qué es el daño? El gobierno dice que está limitando su regulación de la desinformación sólo a los contenidos más perjudiciales. Pero la lista de daños es bastante amplia. Algunos de los más abusivos son el daño a la "eficacia de las medidas sanitarias preventivas", el "vilipendio" de grupos de personas (es decir, la incitación al odio) y el perjuicio a la economía australiana o a la confianza pública en los mercados. Es importante señalar que el proyecto de ley sólo exige que el discurso en cuestión "contribuya" al daño. Por lo tanto, no es difícil imaginar muchos tipos de debates políticos y sociales que podrían contribuir a estas categorías de daño. Por ejemplo, incluso una afirmación relativamente cuidadosa sobre la debilidad potencial de una vacuna recién desarrollada podría contribuir a la indecisión sobre las vacunas que perjudica la eficacia de las medidas sanitarias preventivas. O citar estadísticas criminales sobre diferentes grupos de personas podría ser exacto pero ser visto por algunos como fuera de contexto y contribuir al vilipendio de un grupo. Una vez más, lo único que importará será la opinión del gobierno de turno sobre lo que es perjudicial, lo que introduce aún más prejuicios en este proceso.
- ¿Cómo podemos determinar la intencionalidad sin información completa ni el debido proceso? Como muchas otras definiciones de desinformación, el proyecto de ley diferencia la desinformación intencional de la desinformación no intencional por su intención de engañar. Aunque esto es habitual, elude la dificultad de cómo determinar la intención de un discurso en línea sin información completa. De hecho, el proyecto de ley no exige un alto nivel de prueba, sino sólo que haya "motivos para sospechar" la intención engañosa. Esto hace que sea increíblemente fácil definir el contenido como desinformación.
Por ejemplo, el ampliamente citado tablero de control contra la desinformación Hamilton 68 afirmaba que los bots rusos estaban difundiendo grandes cantidades de desinformación en Twitter. Sin embargo, la propia Twitter pudo determinar que los usuarios acusados de ser bots rusos eran en su mayoría usuarios de derechas o populistas. Esta definición convierte en armas este tipo de afirmaciones sensacionalistas y falsas de desinformación, obligando a las empresas tecnológicas a abordar la supuesta desinformación o a refutarla por miedo a ser penalizadas por incumplimiento.
Hay otros elementos preocupantes en estas definiciones (por ejemplo, cómo pretende el gobierno definir y vigilar el comportamiento inauténtico de una manera que sea mejor de lo que las empresas ya intentan hacer o si la excepción para los medios de noticias profesionales de ser considerados desinformación está favoreciendo cierto discurso de élite sobre el discurso de los activistas en línea o periodistas independientes), pero eso es para otro blog. También vale la pena señalar que el gobierno al menos intentó aprender algunas lecciones de la muy problemática primera versión de este proyecto de ley, como la eliminación de una disposición que habría protegido el discurso del gobierno de ser considerado como desinformación, mientras que el discurso de la oposición podría ser considerado desinformación. Pero las amplias definiciones de desinformación intencional y desinformación no intencional del proyecto de ley siguen siendo muy problemáticas y es probable que se apliquen de forma sesgada en función del partido que esté al frente del gobierno.
De hecho, más allá de las definiciones, la forma en que el proyecto de ley pretende vigilar la desinformación intencional y la desinformación no intencional también debería hacer reflexionar a los australianos. En nombre de la lucha contra el daño, otorga amplios poderes a la Autoridad Australiana de Comunicaciones y Medios de Comunicación para regular la forma en que varias empresas tecnológicas moderan lo que es verdadero, falso, engañoso o perjudicial en línea. El proyecto de ley se aplica no sólo a las redes sociales, sino también a empresas de todos los tamaños que ofrecen motores de búsqueda, servicios de medios conectivos, agregación de contenidos y servicios de intercambio de medios, aunque no a los proveedores de servicios de Internet, texto o mensajes directos. La lista sigue siendo increíblemente amplia: desde videojuegos a búsquedas en Google y desde Facebook a páginas porno.
A estas empresas se les exigirá que creen o mantengan ciertos códigos para combatir la desinformación, sobre la que en teoría tienen cierto control. Estos códigos deben abordar cómo moderar el contenido, incluyendo
- eliminación de contenidos mediante revisores humanos o herramientas de inteligencia artificial (IA)
- detener los anuncios o la monetización de la desinformación
- permitir a los usuarios denunciar la desinformación;
- transparencia sobre la fuente de un anuncio político
- apoyo a la comprobación de hechos, y
- proporcionar a los usuarios información fidedigna.
Muchas empresas tecnológicas ya tienen una serie de políticas y prácticas en este ámbito, pero pueden variar significativamente. Por ejemplo, Meta utiliza verificadores de hechos de terceros, mientras que X utiliza Community Notes. Reddit proporciona a los usuarios de sus numerosos subreddits "upvotes" y "downvotes". Los sistemas más descentralizados, como Bluesky o Nostr, pueden tener pocas herramientas centralizadas, pero dan a los usuarios el control sobre la forma en que obtienen sus noticias. Del mismo modo, los motores de búsqueda, las plataformas de videojuegos y otras empresas cubiertas por esta ley pueden variar significativamente en las herramientas y políticas que tienen.
Con este proyecto de ley, sin embargo, el gobierno tiene la autoridad para intervenir y hacer cumplir sus propias normas sobre desinformación si considera que las empresas no están haciendo lo suficiente. Y, por supuesto, el incumplimiento de estas normas puede costar a una empresa hasta el 5% de su facturación anual. Así pues, las empresas no tienen realmente flexibilidad, sino que deben moderar la desinformación lo suficiente para satisfacer al gobierno. Esto podría cambiar a medida que cambien los gobiernos, la política y la actualidad, dejando a las empresas con poca seguridad de haber hecho lo suficiente. Dado que el gobierno puede considerar insuficientes diferentes formas o sistemas de abordar la desinformación, en última instancia las empresas pueden verse limitadas a proporcionar las herramientas aprobadas por el gobierno. Por ejemplo, si al gobierno no le gusta Community Notes, podría exigir a X que adopte la solución que prefiera, tal vez un sistema de verificación de hechos como el de Meta, aunque algunos verificadores de hechos australianos se hayan visto envueltos en una polémica sobre parcialidad. Dada la espada reguladora que pende sobre sus cabezas, cabe esperar que las empresas de medios sociales moderen en exceso, favorezcan la visión gubernamental de la desinformación y se vean limitadas en cuanto a las herramientas de desinformación que pueden proporcionar a los australianos.
Junto con otros requisitos normativos en torno a la gestión de riesgos, la transparencia, etc., el proyecto de ley no sólo inyectará el sesgo gubernamental en la moderación de la desinformación, sino que también pondrá a las empresas en una posición sin salida. Las empresas pueden intentar cumplir estas normas, pero sólo pueden hacerlo en Australia. Esto significa un conjunto cada vez más fragmentado de políticas y procedimientos empresariales para gestionar la normativa australiana y, al mismo tiempo, hacer frente al creciente número de leyes similares establecidas en otras jurisdicciones, como la Ley de Servicios Digitales de la UE. Como alternativa, las empresas podrían adoptar un enfoque de mínimo común denominador, cambiando sus políticas y procedimientos para cumplir de manera más uniforme muchas de las leyes que se están aprobando en todo el mundo. Este planteamiento es más sencillo, pero significa que los estadounidenses que utilizan los servicios de empresas tecnológicas mayoritariamente estadounidenses están sujetos en la práctica a las normas sobre desinformación establecidas por gobiernos extranjeros, un fenómeno conocido como el efecto Bruselas. Por último, estas empresas podrían simplemente abandonar o limitar su presencia en el mercado si les resulta demasiado costoso cumplir las normas. Podemos ver esto en cómo Facebook e Instagram en Canadá simplemente ya no permiten enlaces a artículos de noticias después de que Canadá obligara a Meta a pagar por cada vez que un usuario enlazara a un artículo de un medio de comunicación. El sitio para compartir vídeos Rumble se fue y X está bloqueado ahora en Brasil, y X también está bajo presión en la UE. Apple y Meta no están desplegando algunos productos de IA en la UE debido a la onerosa normativa.
El proyecto de ley contra la desinformación perjudicará la libertad de expresión de los australianos, y su precedente puede extenderse a otros países que quieran restringir la libertad de expresión en nombre de la lucha contra la desinformación. Junto con la creciente presión reguladora en todo el mundo, estas políticas pueden afectar también cada vez más a la expresión de los estadounidenses. Necesitamos que una amplia coalición de la sociedad civil se levante para hacer frente al desafío de la supresión de la libertad de expresión por parte de los gobiernos, señalando los daños que tales acciones gubernamentales están causando en las sociedades de todo el mundo. Además, el gobierno de Estados Unidos también debe mostrarse más activo y vocal en defensa de la libertad de expresión, no sólo en defensa del principio, sino también por el bien de la expresión y las empresas estadounidenses.
Este artículo fue publicado originalmente en Cato At Liberty (Estados Unidos) el 19 de septiembre de 2024.