Los proveedores de IA no deben responder de las infracciones de valores de los usuarios
Jack Solowey dice que abordar las cuestiones de responsabilidad en la era de la IA es fundamental, pero tomar el camino perezoso culpando a los que construyen herramientas de IA de las que todos nos beneficiamos no es la respuesta.
Por Jack Solowey
Si un formulador de política pública quiere imponer su jurisdicción sobre un nuevo sector en auge, puede tratar de responsabilizar a los actores con mucho dinero de los daños que se produzcan dentro de su ámbito de actuación.
Esta estrategia podría explicar un proyecto de ley presentado en el Comité Bancario del Senado de Estados Unidos –la Ley de Reducción del Riesgo de la Inteligencia Artificial Financiera (FAIRR, por sus siglas en inglés)– que haría a los proveedores de inteligencia artificial (IA) responsables de los usos de sus herramientas que violen las leyes de valores, a menos que dichos proveedores tomen medidas preventivas razonables.
Este régimen de responsabilidad podría ser comprensible dados los incentivos de los formuladores de la políticas públicas. Sin embargo, daría lugar a una mala política pública al asignar torpemente la culpa de una manera que choca con los marcos económicos y jurídicos estándar para determinar cuándo los productores deben ser responsables de los daños asociados con el uso de sus productos.
Lo ideal sería que las normas de responsabilidad desalentaran las violaciones de los derechos de los individuos sin desalentar el disfrute productivo de los mismos. Los economistas intentan alcanzar este equilibrio asignando la responsabilidad al "evasor menos costoso", es decir, a la parte para la que la prevención o la mejora de la actividad infractora de los derechos resulte más barata.
Parece poco probable que los proveedores de herramientas de IA sean los que evitan con menor costo las infracciones de la ley de valores. Si, por ejemplo, una empresa de valores registrada, como un agente de bolsa, un asesor de inversiones o una sociedad de inversión, utiliza un modelo genérico de IA, es mucho más probable que sea la empresa, y no el desarrollador del modelo, la que tenga ventaja a la hora de mitigar los riesgos de la legislación sobre valores, incluso mediante un equipo dedicado al cumplimiento.
Puede resultar más tentador considerar al proveedor de IA como el que menos costos evita cuando es un particular, y no una sociedad de valores registrada, quien utiliza la herramienta. Pero incluso cuando esa persona no sea un experto en derecho de valores, probablemente siga siendo más barato para el particular ocuparse de las cuestiones legales que para el proveedor de IA. Pagar por asesoramiento jurídico sobre una actividad conocida y específica suele ser menos caro que diseñar un programa de cumplimiento para protegerse contra todas las posibles permutaciones de violación de valores.
Esto no quiere decir que los formuladores de políticas públicas que cortan el nudo gordiano de la responsabilidad de la IA poniendo a los proveedores de modelos en el anzuelo no tengan nada a su favor. Por ejemplo, identificar a una parte claramente responsable podría suponer menores costos administrativos para el sistema judicial. Richard Epstein, profesor de la Facultad de Derecho de la Universidad de Nueva York, escribe sobre el "doble objetivo" de las normas jurídicas: "reducir los costos administrativos" y "establecer incentivos deseables". Cuando estos objetivos están en tensión, sin embargo, Epstein observa que la cuestión se convierte en "si el ahorro en costos administrativos se disipa por la creación de estructuras de incentivos inferiores".
Responsabilizar a los proveedores de IA de las infracciones de valores produciría, en general, incentivos inferiores. Tyler Cowen, economista y profesor de la Universidad George Mason, argumenta que "hacer plenamente responsables a los proveedores de IA de todos sus diferentes tipos de resultados, y de las consecuencias de esos resultados, probablemente los llevaría a la quiebra". Eso reduciría las valiosas innovaciones de IA que benefician a los participantes en el mercado de valores.
Además, en situaciones en las que un usuario de IA es directamente responsable de una infracción de valores y el proveedor de IA simplemente no evitó dicha infracción, seguiría siendo probablemente más tentador iniciar acciones de ejecución y privadas contra el proveedor de IA siempre que sea posible, ya que dicho proveedor tendería a ser un objetivo de perfil más alto con la aparente capacidad de pagar una sentencia o acuerdo de gran cuantía. Por esta razón, responsabilizar a las empresas de IA de tales violaciones de valores haría que, de forma perversa, esas empresas pagaran regularmente la cuenta de las partes clara y directamente responsables de las violaciones.
La responsabilidad de los proveedores de IA por violaciones de valores no se ve mejor a través de las lentes del derecho consuetudinario, como la responsabilidad por productos defectuosos o el derecho de agencia. Ninguna de estas doctrinas sugiere que la responsabilidad universal del proveedor de IA por los daños resultantes sea apropiada.
Por un lado, en la mayor parte de Estados Unidos, la responsabilidad del proveedor por productos defectuosos sólo cubre las lesiones físicas a personas y bienes, no las "pérdidas puramente económicas", que caracterizarían típicamente las violaciones de valores. Además, hay consideraciones importantes (aunque no uniformemente aplicadas) sobre la responsabilidad por productos defectuosos que preguntan si el usuario modificó el producto o lo utilizó de forma anormal, lo que podría excluir la responsabilidad del proveedor. Cuando un usuario induce a una herramienta de IA a producir una violación de valores, existe un argumento razonable de que el usuario ha realizado una modificación o un uso anormal. Como mínimo, éste es el tipo de argumento que los tribunales deberían tener en cuenta.
El derecho de agencia revela cuestiones similares. La norma típica es que los mandantes (en cuyo nombre actúan los agentes) son responsables de los actos de sus agentes que estén dentro del ámbito del empleo de los agentes. En el contexto de la IA, incluso si asumimos que el proveedor de IA podría ser el principal del agente digital de IA, queda la cuestión de si el agente de IA actuó dentro del ámbito del "empleo". Dado que estas cuestiones se litigan a menudo con resultados mixtos, un régimen de responsabilidad que las ignore chocaría con las sutilezas probadas por el tiempo del derecho anglosajón.
Los principios clave de la legislación estadounidense sobre valores también pesan en contra de la responsabilidad uniforme del proveedor de IA. En concreto, las leyes de valores tienen diferentes requisitos de estado de ánimo. En particular, el Tribunal Supremo ha interpretado que las acciones privadas por fraude en virtud de la Securities Exchange Act y sus reglamentos de aplicación exigen que se alegue la "intención de engañar, manipular o defraudar" del demandado. La Ley FAIRR eludiría estos requisitos al considerar que el proveedor de IA tiene el estado de ánimo pertinente. En particular, un reciente discurso del Presidente de la Comisión del Mercado de Valores de Estados Unidos, Gary Gensler, interpretó que la Ley FAIRR propone imponer una norma estricta de responsabilidad estándar.
Socavar los requisitos de intención no sólo chocaría con la legislación vigente, sino que también revelaría la ineficacia de culpar a los proveedores de IA. Los requisitos de estado de ánimo pueden, en parte, codificar importantes intuiciones sobre si una parte estaba en buena posición para evitar daños. Por ejemplo, al preguntar si el daño era previsible, la norma de negligencia del derecho de responsabilidad civil pregunta esencialmente si habría tenido algún sentido para el demandado actuar de una manera que hubiera evitado el daño. Al eliminar, o al menos rebajar, los requisitos del estado mental del proveedor de IA para las infracciones de valores, la Ley FAIRR asignaría la responsabilidad por la conducta de formas que hasta ahora no tenían sentido para los formuladores de las políticas públicas o los tribunales.
Abordar las cuestiones de responsabilidad en la era de la IA es fundamental. Pero tomar el camino perezoso culpando a los que construyen herramientas de IA de las que todos nos beneficiamos no es la respuesta, sobre todo cuando hacerlo choca tanto con la economía como con principios jurídicos arraigados.
Este artículo fue publicado originalmente en Cato At Liberty (Estados Unidos) el 8 de abril de 2024.