Blog

Los problemas de privacidad de Sora y la función «Memoria» de ChatGPT

En los últimos años se ha avanzado mucho en el campo de la inteligencia artificial (IA). El anuncio por parte de OpenAI de nuevas funciones, como Sora y la memoria en ChatGPT, supone un gran paso. A través de su nueva función, llamada «memoria», ChatGPT puede recordar lo que ha aprendido de conversaciones anteriores con los usuarios. Oficialmente, su objetivo es mejorar la experiencia del usuario liberándonos de la necesidad de compartir información una y otra vez. Sin embargo, los usuarios podemos estar preocupados por la privacidad, la seguridad de los datos y los efectos de la retención de datos por parte de la IA, ya que esta función está activada por defecto. Aunque OpenAI dijo que los usuarios tendríamos control sobre la función, sigue preocupando el tipo de datos que se almacenarán y la posibilidad de que se produzcan violaciones de la privacidad.

Con su capacidad para crear vídeos que se asemejan notablemente al texto, Sora representa un avance significativo para los modelos de IA de texto a vídeo. El nombre del modelo, que significa «cielo» en japonés, refleja su amplio potencial creativo y supone un gran paso adelante en la producción mediática impulsada por la IA. OpenAI reconoce que el modelo puede tener dificultades para simular con precisión la física de escenas complejas y comprender relaciones específicas de causa y efecto. Por ejemplo, aunque Sora puede crear imágenes realistas, puede tener dificultades para representar con precisión determinadas acciones o interacciones dentro de una escena. 

Estos vídeos, de hasta un minuto de duración, tienen unos gráficos increíbles, pero OpenAI afirma que el modelo aún no es bueno para simular escenas complejas con precisión o entender cómo una acción puede llevar a otra. Sora tiene algunas limitaciones, pero un gran potencial creativo, como demuestra su capacidad para crear vídeos vivos y variados. OpenAI ha compartido Sora con expertos en ciberseguridad y profesionales de la creación digital para recabar opiniones y evaluar posibles riesgos, lo que supone un compromiso con el desarrollo y despliegue responsables de las tecnologías de IA.

La activación por defecto de la función de memoria de ChatGPT es paralela a la tendencia general de las empresas tecnológicas a tomar decisiones sobre la recopilación y el almacenamiento de datos en nombre de los usuarios. Aunque OpenAI afirma que los usuarios podemos desactivar la función de memoria en cualquier momento, la configuración por defecto puede exponernos, inadvertidamente, a los usuarios a riesgos asociados con la retención de datos sin nuestro consentimiento explícito. Este planteamiento subraya la importancia del consentimiento informado y la autonomía del usuario a la hora de configurar el desarrollo y la implantación de las tecnologías de IA.

La opacidad que rodea la naturaleza de la función de memoria de la IA plantea preocupaciones adicionales en relación con la privacidad de los usuarios y la seguridad de los datos. Sin una comprensión clara de los tipos de información retenida por ChatGPT, se deja a los usuarios especular sobre las posibles implicaciones para nuestros datos personales. Aunque OpenAI garantiza que la información sensible no se memorizará de forma proactiva a menos que el usuario lo solicite explícitamente, la falta de transparencia sobre los criterios de retención de datos deja lugar a la incertidumbre y la desconfianza. Además, la posibilidad de que se produzcan filtraciones accidentales de datos, como demuestran los incidentes ocurridos en el pasado con OpenAI, agrava aún más estas preocupaciones y subraya la necesidad de contar con salvaguardias sólidas y mecanismos de rendición de cuentas.

En respuesta a los temores en torno a la función de memoria, OpenAI ha introducido varias medidas destinadas a mitigar los riesgos para la privacidad y darnos a los usuarios la posibilidad de controlar nuestros datos. Entre ellas, la opción de que los usuarios cambiemos a un modo de «chat temporal» para mantener conversaciones sin memoria y la promesa de evitar la memorización proactiva de datos sensibles. Aunque estas medidas representan pasos en la dirección correcta, su eficacia depende de la concienciación y la confianza de los usuarios en el compromiso de OpenAI con la privacidad y la seguridad de los datos. Además, el despliegue de la función de memoria a una cohorte limitada de usuarios para pruebas subraya el compromiso de OpenAI con el desarrollo iterativo y el despliegue responsable de las tecnologías de IA.

Además de estos avances, la IA hizo acto de presencia durante la Super Bowl LVIII. Microsoft y Google presentaron nuevos productos basados en IA en sus anuncios, destacando el potencial de la IA para mejorar las capacidades humanas. Mientras tanto, un anuncio de la marca de bebidas deportivas Bodyarmor mostraba una representación surrealista de contenido generado por IA, que recordaba a experimentos anteriores con medios generados por IA. Verizon también incluyó un breve guiño a la IA en su anuncio protagonizado por Beyoncé, mostrando aún más la presencia de la IA en la cultura y la publicidad dominantes.

Sin embargo, en medio de estos avances, ha surgido la preocupación por el uso indebido de la tecnología de IA por parte de hackers informáticos respaldados por estados. Microsoft informó de que cinco grupos de hackers informáticos vinculados a diversos gobiernos habían estado utilizando la tecnología de OpenAI para mejorar sus capacidades de ciberataque. Aunque no se han revelado los detalles de cómo se utilizó la IA, la revelación subraya la necesidad de vigilancia y salvaguardias contra el posible uso indebido de las herramientas de IA.

Mientras tanto, Sam Altman, consejero delegado de OpenAI, ha estado buscando importantes inversiones para una empresa propuesta para construir unidades de procesamiento gráfico (GPU). Este ambicioso empeño pretende hacer frente a la escasez de chips y ampliar la cadena de suministro mundial de GPU, con el objetivo último de hacer avanzar la investigación sobre IA y lograr «una AGI segura que beneficie a toda la humanidad». Los esfuerzos de recaudación de fondos de Altman, aunque de una escala sin precedentes, se alinean con la misión de OpenAI de impulsar la innovación en tecnología de IA garantizando al mismo tiempo resultados éticos y equitativos.

Los recientes avances en IA, incluida la introducción de Sora y la función de memoria para ChatGPT, ponen de relieve la evolución en curso de la tecnología de IA y su impacto potencial en diversas industrias, incluida la cinematográfica. Aunque estos avances ofrecen interesantes posibilidades para la creatividad y la eficiencia, también plantean importantes consideraciones sobre la privacidad, la seguridad y el uso ético. A medida que la IA sigue calando en la sociedad, es imperativo dar prioridad al desarrollo responsable y a la colaboración para aprovechar sus beneficios y mitigar al mismo tiempo los riesgos potenciales.

Artículos destacados

From offline to online.

Comparte tus ideas con nosotros