Google Photos Podría Indicar si las Imágenes Fueron Creadas o Editadas con IA
Una nueva función en desarrollo para Google Photos podría facilitar la identificación de contenido generado o editado con inteligencia artificial, proporcionando a los usuarios más información sobre el origen de sus imágenes para combatir la desinformación (Fuente Android Authority).
Google está trabajando en una nueva función para Google Photos que hará más fácil identificar si una foto o un video ha sido alterado con herramientas de inteligencia artificial. Esta característica, descubierta en el código de la aplicación, busca mitigar el problema de no poder distinguir entre contenido real y «deepfakes». La funcionalidad, referenciada en la versión 7.41 de la aplicación con el nombre en código «threepio», añadiría una nueva sección llamada “¿Cómo se hizo esto?” en la vista de detalles de la foto. Al deslizar el dedo hacia arriba sobre una imagen o video, los usuarios podrán ver información sobre cómo se creó o editó.
El sistema podría mostrar etiquetas como «Contenido creado con IA», «Editado con herramientas de IA», «Editado con múltiples herramientas de IA» o «Contenido capturado con una cámara sin ajustes de software». También podría detectar cuando se han utilizado múltiples herramientas de edición o cuando se han combinado varias imágenes. En caso de que el historial de edición del archivo se haya modificado o no esté disponible, Google Photos mostraría un mensaje de error.
Esta función parece estar basada en Content Credentials, un sistema que adjunta un historial de ediciones a un archivo, que se mantiene incluso cuando se comparte. Esta idea no es del todo nueva para Google, que ya ha desarrollado SynthID, una herramienta de marca de agua digital invisible para identificar imágenes generadas por IA. Ambas iniciativas buscan dar a los usuarios más contexto sobre el origen del contenido visual y son parte de un esfuerzo más amplio de la compañía para promover la transparencia en la era de la inteligencia artificial.