Lo que el pasado puede enseñarnos sobre nuestros miedos a la IA
Jennifer Huddleston y Emma Hopp explican que la regulación de la inteligencia artificial podría amenazar la libertad de expresión, al igual que lo hicieron en su día las propuestas de regulación de otros medios de comunicación.
Por Jennifer Huddleston y Emma Hopp
El discurso público en torno al efecto de la inteligencia artificial en la desinformación parece haber crecido después de que el Foro Económico Mundial calificara la inteligencia artificial (IA) como el mayor riesgo a corto plazo en 2024. Pero el repentino auge de la IA no es la primera vez que vemos preocupaciones sobre el impacto potencial de los medios manipulados.
En esta temporada electoral, tanto los responsables políticos como la prensa han expresado su preocupación por la posibilidad de que la IA provoque desinformación en las elecciones. Sin embargo, la historia nos ha demostrado que cuando la gente teme que una nueva tecnología haga que el público sea incapaz de descifrar la verdad de la ficción, a menudo los monstruos resultan ser sólo árboles.
La IA no es la primera vez que nos enfrentamos a temores sobre medios manipulados en el contexto político. Como Jeffrey Westling, del American Action Forum, señaló en 2020 en relación con las posibles preocupaciones en torno a los deepfakes, "la historia está plagada de prácticas engañosas: desde el falso campamento de guerra de Aníbal hasta la suplantación demasiado real del presidente [Henry] Truman por parte de Will Rogers, pasando por la desaparición de enemigos de las fotografías por parte de [Joseph] Stalin".
De hecho, en la década de 1910, la preocupación por la posible "desinformación" en las fotos falsificadas llevó a pedir la prohibición de los tiendas de fotografía (literalmente), lo que suena increíblemente parecido a los llamamientos a regular o prohibir las herramientas de IA hoy en día. Afortunadamente, el Congreso no prohibió estas tecnologías anteriores porque podían utilizarse o abusarse de forma engañosa, y vimos muchos efectos beneficiosos para la expresión de las mismas herramientas.
Mientras que algunos medios manipulados pueden crear incertidumbre o incomodidad, al igual que en el pasado, la regulación de la IA en el contexto político podría crear problemas de libertad de expresión. Las definiciones vagas en torno a la inteligencia artificial o qué tipo de contenido está cubierto pueden ilegalizar herramientas de discurso político si incluyen referencias a figuras políticas o a las elecciones, incluidos memes divertidos o sketches de Saturday Night Live que utilizan la tecnología de IA de forma benigna o beneficiosa, como herramientas de edición de audio o visual o de traducción automática.
Como resultado, las formas legítimas y protegidas de expresión, incluidos los comentarios políticos como la parodia, podrían ser silenciadas por una regulación onerosa. Las normas sobre el uso de la IA en las elecciones también podrían impedir que los servicios de IA proporcionen información objetiva sobre las posiciones o políticas de un candidato si una plataforma se viera sujeta a una posible responsabilidad.
A menudo, el etiquetado obligatorio de la IA se considera una alternativa potencialmente menos invasiva que la prohibición del uso de la IA en contextos electorales o políticos. Sin embargo, una etiqueta impuesta por el gobierno sería diferente del etiquetado establecido voluntariamente por las plataformas y podría no alcanzar el objetivo de mejorar la concientiziación de los consumidores. Aunque bienintencionada, una etiqueta impuesta por el gobierno podría requerir que incluso los filtros ordinarios o las prácticas estándar se etiquetaran como generados por IA, y si no hay distinción entre un uso abierto y manipulador y un uso neutral de la IA, podría dar lugar a un grado malsano de desconfianza entre el público.
Una cosa positiva que hemos aprendido sobre los medios manipulados es que los primeros intentos de engañar al público suelen ser fácilmente identificables y refutados. A medida que surgen intentos más sofisticados de difundir imágenes y vídeos fraudulentos, la sociedad está mejor preparada para ser consumidora crítica de los medios de comunicación.
Ya lo estamos viendo en cierta medida con la IA y otras preocupaciones sobre la manipulación de los medios. Pensemos en dos ejemplos virales recientes. Cuando una robollamada que decía ser el Presidente Joe Biden dijo a los votantes que guardaran su voto para las elecciones generales, se identificó fácilmente como una mala falsificación, y el defraudador fue identificado y multado. A principios de este año, cuando se descubrió que una foto de la princesa de Gales, Kate Middleton, y sus hijos había sido manipulada, posiblemente mediante IA, los servicios de noticias de todo el mundo informaron rápidamente y retiraron la imagen.
El mercado también está respondiendo a las preocupaciones de los consumidores. Varias plataformas ya están estableciendo normas que permiten hacer comentarios creativos utilizando herramientas tecnológicas, a la vez que ayudan a los usuarios a entender cómo abordar este tipo de contenidos. Los usuarios ya pueden informar de la actividad preocupante que hayan observado por parte de agentes extranjeros malignos.
Además, tanto fuentes gubernamentales como medios de comunicación tradicionales como The Washington Post han compartido información sobre posibles influencias extranjeras malignas u otras preocupaciones para ayudar a los usuarios a comprender cómo se están utilizando potencialmente los medios de comunicación manipulados y para ayudar a las personas a responder mejor a lo que encuentran en línea. En lugar de apresurarse a adoptar normas potencialmente preocupantes que también podrían afectar a la expresión legítima, la sociedad adquiere nuevas habilidades para ayudarnos a entender la verdad y, en todo caso, la educación, no la regulación, es a menudo la mejor respuesta.
En los últimos días antes de las elecciones y en la respuesta inmediata, es probable que oigamos renovadas preocupaciones sobre el potencial de la IA y la desinformación. Esperemos que, como hemos visto en el pasado, sea el desarrollo de normas sociales y no las regulaciones gubernamentales lo que nos saque del bosque de la IA.
Este artículo fue publicado originalmente en Reason (Estados Unidos) el 29 de octubre de 2024.