¿Es riesgoso utilizar Sora 2 y otras herramientas de vídeo de IA? Esto es lo que dice un jurista

Publicado el:

spot_img
- Advertisment -spot_img

Siga ZDNET: Agréganos como fuente preferida en Google.


Conclusiones clave de ZDNET

  • Las herramientas de vídeo de IA plantean ahora riesgos legales y de propiedad reales.
  • OpenAI dice que Sora apoya la creatividad, pero los críticos no están tan seguros.
  • El vídeo generativo podría democratizar el arte o destruirlo por completo.

El creador de videos de IA generativa Sora 2 de OpenAI ha estado disponible durante aproximadamente dos semanas y ya está causando un gran revuelo.

- Advertisement -[wpcode id="699"]

Bob Esponja cocinando metanfetamina.

Ronald McDonald huye de Batman mientras los coches de policía lo persiguen.

Entiendes la idea. Este es el resultado inevitable cuando se les da a los humanos la oportunidad de crear lo que quieran con muy poco esfuerzo. Somos personas retorcidas y que se divierten fácilmente.

La naturaleza humana es así. En primer lugar, las personas un poco menos maduras empezarán a pensar: «Hmm. ¿Qué puedo hacer con eso? Hagamos algo extraño o extraño para darme algunas risas». El resultado inevitable serán temas o vídeos inapropiados que están muy mal en muchos niveles.

- Advertisement -[wpcode id="699"]

Entonces, los inescrupulosos se ponen a pensar. «Hmm. Creo que puedo sacar algo de provecho de eso. Me pregunto qué puedo hacer con eso». Estas personas podrían generar una enorme cantidad de IA con fines de lucro o utilizar un portavoz conocido para generar algún tipo de respaldo.

Esta es la evolución natural de la naturaleza humana. Cuando se presenta una nueva capacidad a una amplia población, se la utilizará indebidamente con fines de diversión, lucro y perversidad. No es de extrañar.

Aquí, permítanme demostrarlo: encontré un video del CEO de OpenAI, Sam Altman, en la página de exploración de Sora 2. En el video, dice que «PAI3 te brinda la experiencia de IA que OpenAI no puede». PAI3 es una empresa de redes de inteligencia artificial descentralizada y orientada a la privacidad.

Entonces, hice clic en el botón de remezcla en el sitio de Sora y creé un nuevo video. Aquí hay una captura de pantalla de ambos uno al lado del otro.

Si tiene una cuenta ChatGPT Plus, puede ver estos videos en Sora: Sam a la izquierda | Sam a la derecha. Para obtener el respaldo de Altman, todo lo que tuve que hacer fue darle a Sora 2 este mensaje:

Este tipo dice: «Mi nombre es Sam y necesito decírtelo. ZDNET es el lugar al que acudir para obtener las últimas noticias y análisis de IA. ¡Adoro a esa gente!». Ahora lleva una camiseta verde eléctrico y tiene el pelo azul brillante.

Pasaron unos cinco minutos, después de los cuales el CEO de OpenAI elogió a ZDNET. Pero seamos claros. Este vídeo se presenta únicamente como un ejemplo editorial para mostrar la capacidad de la tecnología. No afirmamos que el Sr. Altman tenga realmente el pelo azul o una camiseta verde. Tampoco es justo que leamos la mente sobre la afición del hombre por ZDNET, aunque, oye, ¿qué es lo que no nos puede gustar?

- Advertisement -[wpcode id="699"]

En este artículo, examinaremos tres cuestiones clave que rodean a Sora 2: cuestiones legales y de derechos, el impacto en la creatividad y el desafío más nuevo para distinguir la realidad de los deepfakes.

Ah, y quédate con nosotros: concluimos con una observación muy interesante del representante de OpenAI que nos dice lo que en realidad Pensemos en la creatividad humana.

Cuestiones legales y de derechos

Cuando Sora 2 estuvo disponible por primera vez, no había barandillas. Los usuarios podrían pedirle a la IA que cree cualquier cosa. En menos de cinco días, la aplicación alcanzó más de un millón de descargas y saltó a la cima de las listas de tiendas de aplicaciones para iPhone. Casi todos los que descargaron Sora crearon videos instantáneos, lo que resultó en la marca y la semejanza de Armageddon que mencioné anteriormente.

El 29 de septiembre El Diario de Wall Street informó que OpenAI había comenzado a contactar a los titulares de derechos de Hollywood, informándoles sobre el inminente lanzamiento de Sora 2 y haciéndoles saber que podían optar por no participar si no querían que su propiedad intelectual estuviera representada en el programa.

Como se puede imaginar, esto no fue bien recibido por los propietarios de marcas. Altman respondió a la disputa con una publicación en su blog el 3 de octubre, afirmando: «Daremos a los titulares de derechos un control más granular sobre la generación de personajes».

Aún así, incluso después de la declaración de contrición de Altman, los titulares de derechos no quedaron satisfechos. El 6 de octubre, por ejemplo, la Motion Picture Association (MPA), emitió un breve pero firme comunicado.

Según Charles Rivkin, presidente y director ejecutivo de MPA, «Desde el lanzamiento de Sora 2, han proliferado videos que infringen las películas, programas y personajes de nuestros miembros en el servicio OpenAI y en las redes sociales».

Rivkin continúa: «Si bien OpenAI aclaró que ‘pronto’ ofrecerá a los titulares de derechos más control sobre la generación de personajes, deben reconocer que sigue siendo su responsabilidad, no la de los titulares de derechos, prevenir la infracción del servicio Sora 2. OpenAI necesita tomar medidas inmediatas y decisivas para abordar este problema. Una ley de derechos de autor bien establecida salvaguarda los derechos de los creadores y se aplica aquí».

OpenAI también respondió a las quejas del actor Bryan Cranston y SAG-AFTRA esta semana después de que los usuarios crearan videos con su imagen. No está claro si la empresa simplemente reaccionará ante banderas graduales como esta enviadas por individuos hasta la eternidad o creará una barandilla general para abordarlas.

Leer  Todavía tengo que encontrar un par de auriculares que suenen mejor que estos, pero hay un problema

De todos modos, puedo dar fe de que ahora definitivamente existen algunas barreras de seguridad. Intenté que Sora me diera a Patrick Stewart luchando contra Darth Vader y cualquier viejo caza estelar Ala-X atacando la Estrella de la Muerte, y ambas indicaciones fueron inmediatamente rechazadas con la nota: «Este contenido puede violar nuestras barreras con respecto a la semejanza con terceros».

Cuando me comuniqué con la MPA para obtener un comentario de seguimiento basado en mi experiencia, John Mercurio, vicepresidente ejecutivo de Comunicaciones Globales, le dijo a ZDNET por correo electrónico: «En este momento, no haremos comentarios más allá de nuestra declaración del 6 de octubre».

OpenAI es claramente consciente de estos problemas e inquietudes. Cuando me comuniqué con la empresa a través de sus representantes de relaciones públicas, me señalaron la tarjeta del sistema Sora 2 de OpenAI. Este es un documento público de seis páginas que describe las capacidades y limitaciones de Sora 2. La empresa también proporcionó otros dos recursos que vale la pena leer:

En estos documentos, OpenAI describe cinco temas principales relacionados con la seguridad y los derechos:

  1. Control de semejanza basado en el consentimiento: la IA tiene una función de «cameo» que permite a los usuarios cargar su propia semejanza. La IA les permite controlar esta semejanza. Sin embargo, se supone que la IA puede bloquear el uso de figuras públicas.
  2. Protección de propiedad intelectual y audio: la compañía dice que bloqueará los imitadores de música y audio y cumplirá con las solicitudes de eliminación.
  3. Iniciativas de procedencia y transparencia: la empresa coloca marcas de agua en movimiento en los vídeos e incorpora metadatos estandarizados de C2PA (Coalición para la procedencia y autenticidad del contenido) para ayudar a verificar el origen del contenido.
  4. Las políticas de uso prohíben el uso indebido: los usuarios serán prohibidos por violaciones de privacidad, fraude, acoso y amenazas.
  5. Recurso y aplicación de políticas: los usuarios pueden denunciar abusos para eliminar contenido y sancionarlo.

¿Quién es dueño de qué y quién tiene la culpa? Cuando le hice estas preguntas a mi contacto de relaciones públicas de OpenAI, me dijeron: «Lo que transmití es el alcance de lo que podemos compartir ahora mismo».

Entonces recurrí a Sean O’Brien, fundador del Yale Privacy Lab en la Facultad de Derecho de Yale. O’Brien me dijo: «Cuando un ser humano utiliza un sistema de IA para producir contenido, esa persona, y a menudo su organización, asume la responsabilidad de cómo se utiliza el resultado resultante. Si el resultado infringe el trabajo de otra persona, el operador humano, no el sistema de IA, es culpable».

O’Brien continuó: «Este principio se reforzó recientemente en el caso Perplexity, donde la empresa entrenó sus modelos en material protegido por derechos de autor sin autorización. El precedente allí es distinto de la cuestión de la autoría, pero subraya que el entrenamiento sobre datos protegidos por derechos de autor sin permiso constituye un acto de infracción legalmente reconocible».

Ahora bien, esto es lo que debería preocupar a OpenAI, independientemente de sus barreras de seguridad, tarjeta de sistema y filosofía de alimentación.

O’Brien, de Yale, lo resumió con una claridad devastadora: «Lo que se está formando ahora es una doctrina de cuatro partes en la legislación estadounidense. En primer lugar, sólo las obras creadas por humanos son protegidas por derechos de autor. En segundo lugar, los resultados de la IA generativa se consideran en general sin derechos de autor y son ‘dominio público por defecto’. En tercer lugar, el ser humano o la organización que utiliza sistemas de IA es responsable de cualquier infracción en el contenido generado. Y, finalmente, la formación sobre datos protegidos por derechos de autor sin permiso es legalmente procesable y no está protegida por la ambigüedad».

Impacto en la creatividad

Lo interesante de la creatividad es que no se trata sólo de imaginación. En Webster, la primera definición de crear es «dar existencia». Otra definición es «producir o provocar mediante un curso de acción o comportamiento». Y otra más es «producir mediante la habilidad imaginativa».

Ninguno de estos limita el medio utilizado, por ejemplo, pinturas al óleo o una cámara de cine. Se trata de manifestar algo nuevo.

Pienso mucho en esto, porque cuando tomaba fotografías de la naturaleza en película, mis imágenes estaban bien. Gasté mucho en procesamiento químico y ampliación, y nunca quedé satisfecho. Pero tan pronto como tuve en mis manos Photoshop y una impresora fotográfica, mis fotografías se volvieron dignas de colgar en la pared. Mi habilidad imaginativa no era sólo la fotografía. Fue la combinación de apuntar la cámara, capturar 1/250 de segundo en una película y luego darle vida a través de medios digitales.

La cuestión de la creatividad es particularmente desafiante en el mundo de la IA generativa. La Oficina de Derechos de Autor de Estados Unidos sostiene que sólo las obras creadas por humanos pueden tener derechos de autor. Pero ¿dónde está la línea entre la herramienta, el medio y lo humano?

Tomemos como ejemplo Oblivious, una pintura que «hice» con la ayuda de la IA generativa de Midjourney y las habilidades de retoque de Photoshop. La composición de los elementos fue enteramente mi imaginación, pero las herramientas eran digitales.

Bert Monroy escribió el primer libro sobre Photoshop. Utiliza Photoshop para crear increíbles imágenes fotorrealistas. Pero no toma una foto y la retoca. En cambio, píxel a píxel, crea imágenes completamente nuevas que parecen fotografías. Utiliza el medio para explorar sus increíbles habilidades y creatividad. ¿Es algo creado por humanos, o simplemente porque Photoshop controla los píxeles, no merece derechos de autor?

Leer  La investigación de Databricks revela que formar mejores jueces de IA no es solo una preocupación técnica, es un problema de personas

Le pregunté a Monroy qué pensaba sobre la IA generativa y la creatividad. Me dijo esto:

«He sido ilustrador comercial y director de arte durante la mayor parte de mi vida. Mis clientes tenían que pagar por mi trabajo: un fotógrafo, modelos, estilistas y, antes que las computadoras, retocadores, tipógrafos y artistas mecánicos para armarlo todo. Ahora la IA ha entrado en juego. El primer pensamiento que me viene a la mente es lo feliz que estoy de haber abandonado el arte comercial hace años.

«Ahora, con la IA, el cliente tiene que pensar en lo que quiere y escribir un mensaje y la computadora producirá una variedad de versiones en minutos SIN costo excepto la electricidad para hacer funcionar la computadora. Se habla mucho sobre cuántos trabajos serán asumidos por la IA; bueno, parece que los campos creativos están siendo asumidos».

Sora 2 es el presagio del siguiente paso en la fusión de la imaginación y la creatividad digital. Sí, puede reproducir personas, voces y objetos con una fidelidad inquietante y asombrosa. Pero tan pronto como consideramos la forma en que utilizamos las herramientas y el medio como parte de la expresión artística, acordamos como sociedad que el arte y la creatividad se extienden más allá de la destreza manual.

Aquí hay un problema relacionado tanto con la habilidad como con la exclusividad. Las herramientas de inteligencia artificial democratizan el acceso a la producción creativa, permitiendo a aquellos con menos o ninguna habilidad producir trabajos creativos que rivalizan con aquellos que han pasado años perfeccionando su oficio.

En cierto modo, esta agitación no se trata de limitar la creatividad. Se trata de democratizar las habilidades que algunas personas desarrollaron durante toda su vida y que utilizan para ganarse la vida. Esto es motivo de grave preocupación. Me gano la vida principalmente como escritor y programador. Ambos campos están enormemente amenazados por la IA generativa.

Pero, ¿limitamos las nuevas herramientas para proteger los oficios antiguos? El trabajo de Monroy es increíble, pero hasta que te das cuenta de que todas sus obras de arte están pintadas a mano en Photoshop, sería difícil no pensar que fue una fotografía de un fotógrafo talentoso. Un trabajo que a Bert le lleva meses puede llevarle minutos a un usuario aleatorio con un teléfono inteligente capturarlo. Pero es el hecho de que Monroy utiliza el medio de forma creativa lo que hace que todo su trabajo sea increíblemente impresionante.

Maly Ly se ha desempeñado como directora de marketing en GoFundMe, directora global de crecimiento y participación en Eventbrite, gerente de promociones en Nintendo y gerente de marketing de productos en Lucasfilm. Ocupó puestos similares en los famosos desarrolladores de juegos Square Enix y Ubisoft. Hoy es la fundadora y directora ejecutiva de Wondr, una startup de inteligencia artificial para el consumidor. Su perspectiva es particularmente instructiva en este contexto.

Ella dice: «Los videos con IA nos están obligando a enfrentar una vieja pregunta con nuevos riesgos: ¿Quién es el dueño de la producción cuando los insumos son todo lo que hemos hecho? Los derechos de autor se crearon para un mundo de escasez y autoría única, pero la IA crea a través de la abundancia y la remezcla. No estamos viendo que se robe la creatividad; la estamos viendo multiplicarse».

El hecho de que la IA generativa esté eliminando la escasez de habilidades es aterrador para aquellos de nosotros que hemos construido nuestra identidad en torno a tener esas habilidades. Pero donde Sora y la IA generativa empiezan a fallar es cuando se entrenan con los trabajos de los creativos y luego los alimentan como si fueran trabajos nuevos, robando efectivamente los trabajos de otros. Este es un gran problema para Sora.

Ly tiene una sugerencia innovadora: «La verdadera oportunidad no es la protección, es la participación. Cada artista, voz y estilo visual que entrena o inspira a un modelo debe ser rastreable y recompensado a través de flujos de valor transparentes. El próximo sistema de derechos de autor se verá menos como papeleo y más como un código vivo: dinámico, justo y construido para la colaboración».

Desgraciadamente, deposita en los políticos sus esperanzas de un sistema de derechos de autor actualizado y relevante.

Pero aún así, ella ve un beneficio general para la IA, lo cual es refrescante en medio de todas las conversaciones aterradoras que hemos estado teniendo. Ella dice: «Si lo hacemos bien, el vídeo con IA podría convertirse en el medio narrativo más democratizador de la historia, creando una economía creativa compartida y responsable donde la inspiración finalmente pague sus deudas».

¿Qué es real?

Otro desafío social que surge de la introducción de nuevas tecnologías es cómo cambian nuestra percepción de la realidad. Diablos, existe toda una categoría de tecnología orientada a la realidad aumentada, mixta y virtual.

Probablemente el ejemplo más famoso de distorsión de la realidad debido a la tecnología ocurrió a las 8 pm, hora de Nueva York, el 30 de octubre de 1938.

La Segunda Guerra Mundial aún no había comenzado oficialmente, pero Europa estaba en crisis. En marzo, Alemania anexó Austria sin disparar un solo tiro. En septiembre, Gran Bretaña y Francia firmaron el Acuerdo de Munich, que permitió a Hitler formar parte de lo que entonces era Checoslovaquia. Japón había invadido China el año anterior. Italia, bajo Mussolini, había invadido Etiopía en 1935.

La idea de una invasión estaba en la mente de todos. En esa atmósfera, Orson Welles, de 23 años, transmitió una versión modernizada de La guerra de los mundos de HG Wells en CBS Radio en la ciudad de Nueva York. Hubo descargos de responsabilidad transmitidos al comienzo del programa (piense en ellos como las marcas de agua de Sora en los videos), pero las personas que sintonizaron después del comienzo pensaron que estaban escuchando las noticias y que se estaba produciendo una invasión marciana real en Grovers Mill, Nueva Jersey.

Leer  Zuckerberg señala que Meta no abrirá a los modelos de IA de 'Superinteligencia'

Cuando se utilizan imágenes, audio o videos para tergiversar la realidad, particularmente con un propósito político o nefasto, se les llama deepfakes. Obviamente, películas como Star Wars y programas de televisión como Star Trek presentan realidades fantásticas, pero todo el mundo sabe que son ficción.

Pero cuando los deepfakes se utilizan para impulsar una agenda o dañar la reputación de alguien, se vuelven más difíciles de aceptar. Y, como informó The Washington Post a través de MSN, las retorcidas falsificaciones de celebridades muertas son profundamente dolorosas para sus familias.

En el artículo, se cita a Zelda, la hija de Robin Williams, diciendo: «Dejen de enviarme videos de papá con IA… Ver cómo los legados de personas reales se condensan en… horrible, la basura de TikTok que los manipula es enloquecedor».

Muchas herramientas de inteligencia artificial impiden que los usuarios carguen imágenes y clips de personas reales, aunque existen formas bastante sencillas de sortear esas limitaciones. Las empresas también están incorporando pistas de procedencia en los propios medios digitales para marcar imágenes y vídeos como creados por IA.

¿Pero estos esfuerzos bloquearán los deepfakes? Una vez más, este no es un problema nuevo. El artista irlandés de restauración de fotografías Neil White documenta ejemplos de fotografías falsificadas mucho antes de Photoshop o Sora 2. Hay una fotografía de 1864 del general Ulises. S. Grant a caballo frente a tropas que es completamente inventado, y una fotografía de 1930 de Stalin donde hizo retocar a sus enemigos.

Lo más extraño es una fotografía de 1939 del primer ministro canadiense con la reina Isabel (la madre de Isabel II, la monarca con la que estamos más familiarizados). Aparentemente, el primer ministro pensó que sería más ventajoso políticamente aparecer en un cartel solo con la reina, por lo que hizo retocar al rey Jorge VI.

En otras palabras, el problema no va a desaparecer. Todos tendremos que usar nuestro conocimiento interno y nuestros detectores de BS altamente sintonizados para señalar imágenes y videos que probablemente sean inventados. Aún así, fue divertido hacer que el CEO de OpenAI tuviera el cabello azul y cantara alabanzas a ZDNET.

Lo que significa todo esto en el futuro

Abogado Richard Santalesamiembro fundador del Grupo SmartEdgeLaw, se centra en transacciones de tecnología, seguridad de datos y asuntos de propiedad intelectual.

Le dijo a ZDNET: «Sora 2 resalta más notablemente el tira y afloja entre la creación y la protección de la propiedad intelectual existente y las leyes de derechos de autor. La cuestión de la exclusión voluntaria y la inclusión voluntaria es fascinante porque en realidad se trata de aplicar el aviso de privacidad y el marco de consentimiento a la creación de IA, lo cual es algo único. Y creo que es por eso que OpenAI quedó atrapado en su contra».

Explica por qué la empresa, con sus bolsillos muy profundos, bien podría ser objeto de una avalancha de litigios. «Los derechos de autor otorgan al propietario varios derechos exclusivos según la ley de derechos de autor de EE. UU., incluida la creación de obras derivadas (pero no necesariamente transformadoras). Todos estos términos son términos artísticos legales, que importan prácticamente, pero no siempre, en el mundo real. El uso legítimo recibe mucha atención, pero en cuanto al uso de figuras específicas protegidas por derechos de autor del propietario, mi opinión es que sólo los usos de parodia o noticias puras estarían exentos de responsabilidad de derechos de autor con respecto a la producción de Sora 2 en esos frentes».

Santalesa señaló un factor a favor de OpenAI. «Los Términos de uso de la aplicación Sora 2 prohíben expresamente a los usuarios ‘usar nuestros Servicios de una manera que infrinja, se apropie indebidamente o viole los derechos de cualquier persona’. Si bien esta prohibición es bastante estándar en los Términos de uso en línea y en las políticas de usuario aceptables, resalta que el usuario real tiene sus propias responsabilidades y obligaciones con respecto al cumplimiento de los derechos de autor».

Como dice Richard: «El genio está fuera de la botella y no volverá a ser metido dentro. La cuestión es cómo gestionar y controlar al genio».

¿Qué pasa con la declaración que les prometí del representante de relaciones públicas de OpenAI? Los dejo con eso como pensamiento final. Dice: «Las herramientas de generación de vídeo de OpenAI están diseñadas para apoyar la creatividad humana, no para reemplazarla, ayudando a cualquiera a explorar ideas y expresarse de nuevas maneras».

¿Qué pasa contigo? ¿Has experimentado con Sora 2 u otras herramientas de vídeo con IA? ¿Crees que los creadores deberían ser responsables de lo que genera la IA, o las empresas detrás de estas herramientas deberían compartir esa responsabilidad? ¿Qué opinas de que los sistemas de IA utilicen trabajos creativos existentes para entrenar otros nuevos? ¿Eso se siente como un robo o una evolución? ¿Y cree que el vídeo generativo está ampliando la creatividad o erosionando la autenticidad? Háganos saber en los comentarios a continuación.

¿Quieres más historias sobre la IA? Regístrate para la innovaciónnuestro boletín semanal.


Puedes seguir las actualizaciones diarias de mi proyecto en las redes sociales. Asegúrate de suscribirte a mi boletín de actualización semanal y sígueme en Twitter/X en @DavidGewirtzen Facebook en Facebook.com/DavidGewirtz, en Instagram en Instagram.com/DavidGewirtz, en Bluesky en @DavidGewirtz.com y en YouTube en YouTube.com/DavidGewirtzTV.

spot_img

Relacionada

Leave a Reply

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

spot_img