Estoy de acuerdo en que vivimos en una sociedad puritana con una relación muy poco sana con la sexualidad que, por un lado, se mercantiliza y, por otro, se desnaturaliza y esconde. El sexo sigue siendo, a fin de cuentas, un tabú incómodo en todas las sociedades del mundo.
Sin embargo, creo que el debate de la IA va por otro lado. Y es un debate mucho más complejo en el que, estoy seguro, ni siquiera nosotros, con una visión algo más liberal del sexo, nos pondríamos de acuerdo.
En primer lugar, hay que tener en cuenta que estamos hablando de productos con un enfoque mundial. Es decir, las empresas que los desarrollan aspiran a que su herramienta se utilice en culturas que puedan ser muy liberales (por ejemplo, las del norte de Europa) pero también en sociedad muy conservadoras (por ejemplo, en el mundo árabe).
En segundo lugar, tenemos que pensar que la mayoría de esos productos están tremendamente influenciados por la sociedad en la que han sido desarrollados. En este caso la estadounidense donde la hipocresía con respeto a la sexualidad, que comentábamos al principio, está mucho más arraigada que en Europa.
Ahora el verdadero problema viene derivado por una serie de problemas éticos, que al mismo tiempo son legales, que no están resueltos. Hablamos de cosas como la responsabilidad que tiene el producto, y sus desarrolladores, sobre los contenidos generados.
Es cierto que el cuerpo nos pide libertad, y mucho más a nosotros, por lo que nuestro primer impulso es hablar de censura cero. Sin embargo, como decía alguien arriba, estamos hablando de herramientas que ya son capaces de crear textos, imágenes y están empezando con vídeos y animaciones. En ese contexto, ¿Qué haremos cuando nos debemos cuenta que todos los pedófilos del mundo usan este tipo de herramientas? ¿Y cuándo nos digan que gracias a ellas se está fomentando la violencia sexual? ¿Y cuando nuestros hijos de 9 o 10 años dejen de intentar asaltar XVideos para jugar con ChatGPT v.2030?.
En ese momento empezaremos a culpabilizar y responsabilizar a la herramienta (igual que hacemos con productores y distribuidores de porno como se ha comentado varias veces en esta página). Es más, desde el punto de vista jurídico no se quiere cometer el mismo error que con los buscadores de Internet, o las redes sociales, que, durante años, actuaron sin control permitiendo aplicar sesgos políticos a la información facilitada (que se lo digan al Brexit o a TRUMP).
Con todos estos ejemplos creo que ya no estaría tan claro que estos sistemas deban funciona sin ningún tipo de control. Y una vez que establecemos controles el problema es discernir donde está el límite.
Empresas como Microsoft, que han gastado miles de millones en desarrollo e infraestructuras, para que esto funcione no tienen demasiado interés en ser parte del debate. Ellos quieren vender el producto sin tener problemas legales o de imagen y, para eso, lo más fácil es huir de determinados temas hasta que la sociedad se aclare. A fin de cuenta ellos son una empresa y no la sociedad.
Y en esto último está la clave. Alguien insinuaba por ahí arriba que las versiones de pago de ChatGPT 4 no tienen limitaciones y eso no es del todo cierto. En cuanto al sexo, o la política, tienen los mismos controles que ChatGPT 3.5 (con la diferencia que la versión más actual, y de pago, admite indicaciones de entrada complejas y matizadas pudiendo adaptarse incluso a tonos, emociones o géneros específicos).
Ahora estas limitaciones están impuestas por la sociedad y nuestras propias incongruencias. Por ejemplo, las herramientas de visión artificial de Microsoft, que usan procesado de ChatGPT 4, permiten pasarle al sistema una foto, o un vídeo, y que este te lo describa (por ejemplo, en esta foto sale una persona, vestida de tal forma, con un perro, de tal raza, junto a una barbacoa de gas haciendo unas hamburguesas). Es capaz de identificar todos esos objetos y ubicarlos en el espacio de la foto. Sin embargo tiene limitado decirte, por ejemplo, el sexo de la persona o su raza.