La innovación del ChatGPT y la libertad de elegir
Martín Krause dice que las nuevas tecnologías de inteligencia artificial se presentan cuestiones éticas que se pueden ir resolviendo a través de la competencia y la libertad para elegir de los consumidores entre diversas alternativas.
Por Martín Krause
Todos sabemos, o sentimos, que ciertas tecnologías han cambiado nuestra forma de vida. Seguramente internet en las últimas décadas, y muchas otras antes, desde el teléfono hasta el automóvil o las vacunas. Ahora se nos presentan otras que sugieren un impacto similar y tal vez más debates éticos que las tecnologías previas: creo que nunca discutimos si era moralmente correcto usar un auto o un teléfono. Pero la cuestión aparece ahora ante cualquier innovación, en un mundo que está alterado por la circunstancia de que existan diferencias entre nosotros, de cualquier tipo.
Si bien hay muchas tecnologías nuevas que estamos comenzando a entender y usar, una de reciente impacto es la inteligencia artificial y su aplicación ChatGPT, algo que parece poder resolvernos cualquier problema, desde obtener una receta de cocina con los ingredientes que en este momento tengo hasta escribir un artículo para una revista científica. Hay buscadores en la web, por supuesto, pero esto es diferente. Como ejemplo, le pedí a ChatGPT que escribiera un cuento en el estilo de Jorge Luis Borges en el que yo fuera protagonista. En menos de un minuto tuve esto: “Había una vez un hombre llamado Martín Krause, que vivía en una pequeña aldea en medio de las vastas llanuras de la pampa argentina. Martín era un hombre solitario y enigmático, que pasaba la mayor parte de su tiempo leyendo libros y explorando las profundidades de su propia mente.
“Un día, Martín recibió una carta de un amigo de la ciudad, quien le informó sobre un extraño objeto que había encontrado en una antigua biblioteca abandonada. Según su amigo, el objeto era un libro muy antiguo, que contenía un conocimiento oculto y misterioso que podría cambiar la vida de cualquier persona que lo leyera.
“Sin dudarlo, Martín se dirigió a la ciudad en busca del libro...”.
Podrá discutirse si efectivamente refleja el estilo solicitado, pero no parece ser un tema que genere algún cuestionamiento ético; no alcanza el nivel del autor original, por supuesto, pero tampoco es plagio. Ahora bien, en un mundo que está crispado por la forma en que cada uno es tratado, ¿cómo resuelve esto ChatGPT? Recientemente Greg Giovanni, un estudiante de Vinod Goel, profesor de Neurociencia Cognitiva de la Universidad de York, le planteó esa pregunta con relación a cuestiones de género y autopercepción, las que comenta Lawrence M. Krauss, un físico teórico que publica un blog llamado Critical Mass, en Substack.
Entre otras cosas, Krauss le pregunta si el ChatGPT modera el contenido de sus respuestas y, si así fuera, cómo puede evitar tener algún tipo de inclinación política. Su respuesta, traducida por Google Traductor para mantener el proceso entre algoritmos: “Como modelo de aprendizaje automático desarrollado por OpenAI, no tengo creencias personales, opiniones ni sesgos políticos. Mis respuestas se generan en función de los patrones que aprendí del texto en el que me capacitaron; sin embargo, OpenAI aplica cierta moderación de contenido a mis resultados para evitar la difusión de información dañina o inexacta. El objetivo es proporcionar información útil y precisa a los usuarios respetando las pautas éticas y legales”.
Krauss presiona al ChatGPT con sucesivas preguntas para las que la respuesta termina siendo que OpenAI busca un delicado balance entre la provisión de información certera y asegurar que no sea dañina u ofensiva. Es decir, hay un filtro, que podría ser interpretado como censura. En este punto el lector tal vez esté esperando que comience una diatriba contra la política de Open AI y el contenido de ChatGPT, pero no será así. Más: voy a afirmar que OpenAI tiene todo el derecho a hacer lo que está haciendo e incluso más si quisiera. Alguien se enojará señalando que la moderación de contenidos no debería permitirse, pero la pregunta que en tal caso debe hacer es: ¿permitirse por quién?
Hay un proceso en el mercado que atiende a estas circunstancias, que ha sido analizado desde los tiempos de Adam Smith y que muchas veces llamamos “soberanía del consumidor”. Tenemos todo el derecho a no permitir que OpenAI haga eso con el contenido de ChatGPT y la forma de hacerlo es, precisamente, no usarlo e ir en busca de alguna alternativa que nos presente una política de moderación diferente o ninguna política al respecto. ¿Tenemos opciones? Le pregunté al mismo ChatGPT si tenía competencia y esto contestó: “Sí, hay otros modelos de lenguaje similares a ChatGPT que también han sido desarrollados por diversas compañías e instituciones de investigación. Algunos de ellos son: GPT-2: otro modelo de lenguaje desarrollado por OpenAI, que es una versión anterior a ChatGPT. BERT: un modelo de lenguaje desarrollado por Google que también se enfoca en el procesamiento del lenguaje natural. Transformer-XL: un modelo de lenguaje desarrollado por Google Brain que se enfoca en la generación de texto y la comprensión del lenguaje. XLNet: un modelo de lenguaje desarrollado por la Universidad Carnegie Mellon y Google Brain que utiliza una arquitectura de red neuronal más compleja que la de GPT-2. RoBERTa: un modelo de lenguaje desarrollado por Facebook AI que se enfoca en mejorar la capacidad de los modelos de lenguaje para comprender el contexto y el significado del lenguaje. Cada uno de estos modelos tiene sus propias fortalezas y debilidades, y se utilizan en diferentes aplicaciones y contextos según sus características específicas”.
Le pregunté si tienen distintas políticas de moderación de contenidos y respondió que los modelos de lenguaje, como tales, por supuesto que no. “Sin embargo, las empresas e instituciones que desarrollan estos modelos pueden tener políticas de moderación de contenidos en sus plataformas y servicios que son independientes de los modelos de lenguaje que utilizan. Por ejemplo, OpenAI, la compañía detrás de ChatGPT, tiene políticas de uso responsable y ético de sus modelos de lenguaje, que incluyen la prohibición de su uso para fines discriminatorios o ilegales”.
Es lo que el mercado nos da: empresas que son responsables de lo que nos ofrecen y variedad de proveedores para que nosotros podamos elegir y definamos así si nos gusta que moderen el contenido de una forma u otra o no lo hagan. El resultado final, como en tantos otros mercados, será la variedad y la competencia, tendremos distintos proveedores de estos servicios y usaremos aquel que más nos atraiga. Alguien podrá decir: “Esto terminará como Google”, pero hay otros buscadores y si todos usamos ese, será que lo hemos elegido. No sé si el futuro será ChatGPT, pero mientras tengamos nuestra libertad de elegir son ellos los que se terminarán acomodando a nuestras preferencias y no al revés.
Este artículo fue publicado originalmente en La Nación (Argentina) el 14 de marzo de 2023.