Los riesgos del aislacionismo de la IA: Las consecuencias imprevistas de prohibir la IA extranjera

Matt Mittelsteadt considera que con un enfoque mesurado que priorice el uso informado, la selección por parte de las tiendas de aplicaciones y, cuando sea necesario, una regulación de alcance limitado, Estados Unidos puede mantener la apertura tecnológica.

PonyWang/E+ via Getty Images

Por Matt Mittelsteadt

A estas alturas, la mayoría ha oído hablar de Deepseek, la empresa china cuyo modelo de IA homónimo sorprendió al sector tecnológico estadounidense con capacidades de vanguardia suministradas a una fracción de los costos estadounidenses.

Para aquellos en Washington preocupados por los riesgos geoestratégicos potenciales del creciente sector tecnológico chino, la ansiedad fue rápida y predecible. Desde el lanzamiento de Deepseek, algunos se han inquietado por la posibilidad de que los bajísimos precios del modelo se impongan en el mercado estadounidense. Otros, en cambio, han planteado problemas de seguridad de los datos. Se ha señalado que todas las conversaciones de los usuarios se almacenan en China y que el código de la aplicación permite la comunicación directa con servidores controlados por el Estado.

Desde entonces, las preocupaciones se han convertido en propuestas políticas para limitar o incluso prohibir Deepseek y otras tecnologías chinas de IA. En una respuesta del 13 de marzo a la solicitud de información de la administración Trump para un "Plan de Acción de IA" federal, OpenAI propuso formalmente prohibir los "modelos producidos en China que violan la privacidad del usuario y crean riesgos de seguridad, como el riesgo de robo de propiedad intelectual". Mientras tanto, en el Senado, el senador Josh Hawley presentó la ley Decoupling America's Artificial Intelligence Capabilities from China (Desvinculación de las capacidades de inteligencia artificial de Estados Unidos de China), que propone una prohibición total y sin reservas de toda la IA desarrollada en China.

Aunque ninguna de estas propuestas tiene un impulso claro, se trata de voces influyentes que, en conjunto, sugieren que está creciendo el interés por algún tipo de prohibición de los modelos chinos. El proyecto de ley de desinversión de TikTok sentó un claro precedente, y los límites a la tecnología extranjera de consumo están sobre la mesa.

Los responsables políticos deben actuar con cautela: las prohibiciones adoptadas con prisas por la seguridad nacional no deben tomarse a la ligera. Limitar el acceso a la tecnología conlleva importantes contrapartidas para la innovación y la seguridad, ya que restringe la capacidad de los desarrolladores para estudiar, tomar prestado y superar innovaciones extranjeras prometedoras.

En muchos casos, existen medios menos restrictivos que pueden resolver los problemas de seguridad nacional y minimizar el impacto sobre la innovación u otros valores. Dada la importancia de esta tecnología, hay que considerar seriamente el daño potencial no intencionado de cualquier limitación a los modelos extranjeros de IA de consumo.

Riesgos para la innovación

La mayor contrapartida de cualquier prohibición de la tecnología de IA extranjera es la pérdida de potencial innovador. Aunque la intención de una prohibición es mantener fuera la IA no fiable, el resultado podría ser aislar el ecosistema de innovación de Estados Unidos quizá más que incluso el de China. A menudo, estas prohibiciones no se ajustan tanto como los autores podrían pensar, restringiendo el acceso a tecnologías necesarias y limitando al mismo tiempo la dinámica del mercado y la colaboración.

Como mínimo, la consecuencia de este aislamiento será la disminución del dinamismo del mercado estadounidense al eliminar la competencia extranjera positiva. Para las empresas estadounidenses de IA, los beneficios de la presión internacional ya son evidentes. Empujado a mejorar por Deepseek, Google ha lanzado recientemente Gemma-3, un modelo de IA que iguala aproximadamente el rendimiento de Deepseek utilizando sólo el 3% de su potencia de procesamiento. La apertura del sistema estadounidense obligó a estos innovadores a avanzar significativamente en la eficiencia de la IA, impulsando mejores tecnologías. Con cualquier prohibición de la IA, este potente incentivo se perdería y el dinamismo podría ralentizarse.

Más allá de deprimir la dinámica del mercado, cualquier prohibición de la IA extranjera limitaría aún más la innovación al detener la polinización cruzada tecnológica. El acceso a diversas tecnologías permite a los ingenieros estadounidenses experimentar, aprender e integrar libremente valiosas innovaciones. En el sector estadounidense de la IA, dominante desde hace mucho tiempo, esta dinámica puede estar infravalorada. Sin embargo, si la industria estadounidense se queda rezagada, recuperar el liderazgo podría muy bien depender de este intercambio libre de tecnología.

La investigación de Deepseek ilustra este punto. Junto con su publicación, Deepseek también publicó una demostración de una notable técnica de formación llamada "destilación de conocimientos". Si sólo se tiene acceso a los resultados de un modelo de IA "maestro" potente, la destilación de conocimientos permite a los ingenieros mejorar rápidamente los sistemas "alumnos" más débiles. En su experimento, el modelo insignia de Deepseek actuó como profesor de la IA Llama de Meta, mejorando significativamente su rendimiento. En algunas pruebas, Llama superó las capacidades de GPT-4o de OpenAI y Claude 3.5 Sonnet de Anthropic, una hazaña impresionante para un modelo que antes se consideraba inferior.

Aunque la destilación de conocimientos no es una panacea que lo arregle todo, la lección de este experimento es clara: para los innovadores, el acceso a la IA extranjera puede ser muy importante. Tanto si Estados Unidos lidera el mercado de la IA como si no, los modelos internacionales son una importante fuente de aprendizaje, ideas e inspiración. Sin embargo, si Estados Unidos pierde alguna vez el liderazgo en IA, la libertad de estudiar y tomar prestado de los sistemas líderes podría ser esencial para nuestra capacidad de ponernos al día. Si los responsables políticos se arriesgan a prohibirla, el resultado probable será la consolidación de la ventaja competitiva extranjera.

Riesgos para la seguridad

Los límites a la IA china también suponen un riesgo para la ciberseguridad. Los sistemas de IA tienen cada vez más capacidad cibernética, tanto con fines ofensivos como defensivos. Las publicaciones consecutivas de OpenAI han puesto de relieve esta evolución. A finales de febrero, OpenAI descubrió que piratas informáticos norcoreanos utilizaban ChatGPT para depurar malware, investigar objetivos y perfeccionar ataques de ingeniería social. Días después, el laboratorio demostró que su IA Deep Research rendía un 33% mejor que su predecesora, GPT-4o, en los desafíos de piratería informática.

Estos avances sugieren que la IA pronto desempeñará un papel fundamental en el panorama de las ciberamenazas. Para los investigadores, comprender y defenderse de cualquier amenaza exigirá un profundo conocimiento de la IA extranjera. Sin una experimentación continua y sin restricciones de los modelos, los expertos en seguridad estadounidenses carecerán de los conocimientos críticos y la familiaridad necesarios para contrarrestar eficazmente los casos de uso malicioso de la IA.

Para la ciberseguridad defensiva del sector privado, el acceso a modelos extranjeros podría ser pronto aún más crucial. En noviembre, Google presentó Big Sleep, una IA que descubrió de forma autónoma una vulnerabilidad de ciberseguridad desconocida hasta entonces. Una primicia mundial. Este avance sugiere que la IA pronto podría cambiar el equilibrio de poder de la ciberseguridad, pasando de una defensa reactiva a una exploración proactiva y a la eliminación de grietas cibernéticas antes de que los productos salgan al mercado.

Si las herramientas de análisis basadas en IA se convierten en estándar, el acceso a una amplia gama de modelos será fundamental. Cada modelo tiene puntos fuertes, puntos débiles y conocimientos únicos. Sin duda, cada uno encontrará vulnerabilidades diferentes. Pronto, una estrategia integral de ciberseguridad podría requerir un software de escaneado con múltiples sistemas de IA. Para las organizaciones estadounidenses, cualquier prohibición de la IA china o extranjera significaría la ceguera ante vulnerabilidades que de otro modo serían detectables. Con las manos atadas, el software estadounidense será más vulnerable, permitiendo potencialmente a los competidores extranjeros establecer el estándar de seguridad global.

Respuestas políticas alternativas y la importancia de un enfoque mesurado

En un mercado de IA en rápida evolución, el acceso a la tecnología extranjera sigue siendo crucial para mantener la paridad técnica, la innovación y la seguridad. Esto no significa que Estados Unidos deba ignorar los riesgos para la seguridad nacional derivados de la tecnología de adversarios extranjeros. Lo ideal sería que la tecnología avanzada fuera desarrollada exclusivamente por naciones democráticas liberales y orientadas al mercado, liberándola del servicio de autoritarismos en el espionaje, la censura o la propagación de ciberinseguridades deliberadas. Sin embargo, esa no es la realidad en la que vivimos, y los regímenes totalitarios y adversarios seguirán invirtiendo en desarrollo tecnológico. Deepseek opera específicamente bajo la supervisión del gobierno chino, y el escepticismo está justificado dada la autoridad legal del gobierno para solicitar datos de la empresa y su historial de implantar deliberadamente agujeros de seguridad en la tecnología de consumo.

Para preservar los beneficios necesarios del acceso abierto a la tecnología frente a estos riesgos, las autoridades deben evitar una prohibición general. En su lugar, los responsables políticos deben buscar una combinación menos restrictiva de uso informado, control de seguridad de las tiendas de aplicaciones y, cuando sea necesario, una regulación limitada a contextos críticos para la seguridad.

Para el usuario promedio, los actuales riesgos de seguridad de la IA china son probablemente marginales, y el mejor mitigante general del riesgo es el uso informado. Dada la abundancia de opciones en el mercado de la IA y de información sobre los productos, los usuarios tienen una inmensa libertad para formarse y elegir los modelos específicos que se ajusten a sus necesidades particulares de seguridad y privacidad. En la mayoría de los casos, los usuarios pueden optar y optarán por defecto por los modelos estadounidenses. Sin embargo, cuando quieran experimentar con alternativas extranjeras, se les debe permitir. En los casos en que la autoeducación y la elección no sean suficientes, la selección en las tiendas de aplicaciones puede servir de protección básica. Las principales tiendas de aplicaciones ya analizan activamente las ofertas en busca de problemas claros de seguridad y, cuando es necesario, eliminan el software inseguro.

En los casos en que los sistemas de inteligencia artificial chinos o extranjeros presenten riesgos realmente inaceptables, los responsables políticos deberían adaptar la normativa a esos contextos específicos. Los datos federales altamente sensibles, por ejemplo, no deberían tocar la IA china. La ley No Deepseek on Government Devices, que limitaría el uso de Deepseek en los sistemas federales, se ajusta adecuadamente a estas circunstancias. Este modelo normativo debería guiar esfuerzos similares. Las normas deben ser la excepción, pero cuando se requieran, deben ser específicas del contexto para evitar las restricciones necesarias a la libertad general de uso y experimentación.

Conclusión

No cabe duda de que Deepseek y otras tecnologías chinas de IA merecen escrutinio y escepticismo dadas las tensiones geopolíticas y el conflicto de valores. Sin embargo, cualquier prohibición general sacrificaría no sólo la libertad general de uso, sino también el dinamismo crucial del mercado, las oportunidades de innovación y las ventajas de la ciberseguridad. Con un enfoque mesurado que priorice el uso informado, la selección de las tiendas de aplicaciones y, cuando sea necesario, una regulación de alcance limitado, Estados Unidos puede mantener la apertura tecnológica, clave tanto para la seguridad como para el liderazgo mundial.

Este artículo fue publicado originalmente en Cato At Liberty (Estados Unidos) el 20 de marzo de 2025.