En febrero pasado Open AI, la empresa detrás del ChatGPT y DALL-E, dio a conocer a Sora, un sistema que utiliza inteligencia artificial “IA” (estrictamente, es un modelo de difusión) para generar videos a partir prompts (textos o instrucciones en lenguaje natural). El modelo está en fase de prueba y, según Open AI, por motivos de seguridad por ahora solo está disponible para algunos investigadores y no es de libre acceso.
Sora se distingue de las aplicaciones que generaran texto o imágenes que hemos venido conociendo en los últimos años bajo la denominación de “inteligencia artificial generativa”, en que va más allá, porque puede crear videos de hasta un minuto con escenas hiperrealistas en las que pueden aparecer “personas”, lugares, ciudades, objetos y entornos (sintéticos o imitaciones de existentes), de acuerdo las instrucciones recibidas. Open AI ha dicho que “no solo comprende lo que el usuario ha pedido en el prompt, sino también cómo existen esas cosas en el mundo físico.”
Estas sorprendentes capacidades podrían tener un sinnúmero de aplicaciones positivas para el sector creativo y cultural (por ejemplo, podrían apoyar la generación de contenido en el cine y otras plataformas de entretenimiento), así es que para algunos se avecina una prometedora nueva revolución. Sin embargo, para otros se generan nuevas inquietudes, o se profundizan otras.
Por una parte, en lo que se relaciona con la propiedad intelectual, es inevitable recordar que el avance de modelos de este tipo profundiza las dudas que surgieron en los últimos años sobre la existencia (o no) de derechos de propiedad intelectual sobre las creaciones generadas autónomamente por los sistemas (algo que según la legislación actual no sería posible) o sobre la existencia o necesidad de reconocer (o no) otros eventuales nuevos tipos de derechos para esos productos. También sobre su armonización con los derechos de los artistas y los creadores de materiales que podrían haber sido utilizados para el entrenamiento de los sistemas, quienes deberían ser reconocidos y remunerados por el uso de sus obras (salvo posibles excepciones).
Por otra parte, el uso inadecuado de herramientas de generación de contenido hiperrealista ya ha dado lugar a la creación de Deep fakes que han implicado la vulneración de derechos tales como la imagen, la honra y la reputación, que han afectado especialmente a mujeres.
En los últimos años hemos sido testigos de la creación de material pornográfico falso y no consentido que, aunque en sus inicios en 2017 afectaba principalmente a mujeres famosas, ya ha perjudicado también a otras mujeres no famosas, situación que incluso han tenido que sufrir adolescentes en Almendralejo (Badajoz, España) o en Chorrillos (Perú).
Además, estos materiales traen otras amenazas, por ejemplo, la posibilidad de manipulación, desinformación, alteración de contenidos, eventuales fraudes, entre otros.
Por esas y otras razones este tema se encuentra entre aquellos que justificarían una regulación o toma de medidas especialmente pensadas para el uso responsable de la IA. Sin embargo, la tarea no es sencilla en algunos casos, porque no puede afectarse la libertad de creación y de expresión. Y en otros, debido a que la legislación actual podría resolver ciertos problemas (como casos de daños a la imagen que podrían considerarse injurias o calumnias), aunque no siempre será así, ya que no suelen existir normas que atiendan específicamente a estos fenómenos.
Así, para situaciones en las que se cometen delitos por medio del uso de estos contenidos las soluciones pueden ser diversas y dependerán de la naturaleza de cada conflicto. Algunas legislaciones (como en Estados Unidos) han prohibido ciertos usos maliciosos de los Deep fakes. Otras, como la “Propuesta de Ley sobre Inteligencia Artificial”, en la Unión Europea, buscan imponer el deber de revelar de forma clara y distinguible (salvo algunas excepciones) que el contenido ha sido generado o manipulado artificialmente, etiquetando el resultado y revelando su origen artificial.
En Chile también hay propuestas. Entre ellas se encuentra el Proyecto de Ley (Boletín Nº 16021-07) que busca incorporar al Código Penal como circunstancia agravante “haber cometido el delito mediante el uso o por medio de IA.” Sin embargo, tanto los riesgos como las oportunidades son diversas y pueden relacionarse con más de una disciplina, por lo que no existen fórmulas perfectas y se trata de un desafío muy difícil de abordar.