Últimamente, no paramos de ver mil y un vídeos sobre aplicaciones que realizan maravillas con nuestras fotos. Que si aumentan su resolución y su detalle, que si se encargan de recuperar el color. Otras, en cambio, nos permiten convertirnos literalmente en otra persona. Sin embargo, estas aplicaciones tienen un peligro oculto y no solo el de la privacidad. ¿Cuál es el lado oscuro de la IA en las fotos?
Una de las aplicaciones más claras de la inteligencia artificial es alucinar datos, y no, no lo decimos de forma jocosa. Más bien es por el hecho que su funcionamiento es aprenderse un patrón para poder hacer predicciones. En el caso de que hablemos de sonido, por ejemplo, podemos hacer que escuche varias canciones completas y luego buscar que complete las que faltan. ¿El resultado? La creación de nuevas obras, pero muy pocas veces, la acertará si no es con un entrenamiento masivo. Pues bien, lo mismo ocurre con fotos y vídeos. Todo por el hecho que lo que transmite se basa en una predicción y no es información real.
¿Por qué la IA en fotos y vídeos es peligrosa?
Hay un tema del que nadie habla y es la preservación de nuestros recuerdos, ya sean personales o colectivos, y este es el gran problema que plantea la manipulación vía IA de las fotos. Por ejemplo, información histórica puede ser alterada por motivos políticos bajo dicha premisa. Pueden eliminarse personas, símbolos o incluso distorsionarse archivos históricos en origen. Lo que provoca que la deseada digitalización de los medios se convierta en un problema. ¿Un vídeo en una escena de un crimen? Voila, el disidente político, aparecerá en el vídeo para poderlo juzgar.
En un mundo donde la información vuela a diario y es tanta que es imposible contrastarla, las Fake News ahora tienen más poder que nunca gracias a lo que permite hacer ahora la inteligencia artificial con los medios. Es decir, crearles falsas pruebas fehacientes que hace que el esfuerzo para los periodistas sea titánico para informar y desmentirlas. Al mismo tiempo nos encontramos con gente destruyendo el pasado al subir la calidad de imágenes y películas antiguas a baja resolución. Es posible que nuestros hijos ya no disfruten de obras tal y como fueron confeccionadas, sino Doppelgangers hechos a través de la inteligencia artificial.
Es más, quien esto escribe conoce a un familiar que cometió el error de destruir las fotos antiguas después de darles el tratamiento de mejora a través de la IA. ¿El resultado? Tener una cantidad de fotos de su familia que se parecen, pero que no son, de gente que realmente no ha existido. Ahora imaginaos esto aplicado a recuerdos históricos.
La importancia de la supervisión
El problema de todas esas aplicaciones de fotos vía IA es el hecho que no existe un componente supervisor. En todo proceso de aprendizaje e inferencia tiene que existir un evaluador, un elemento que le diga al algoritmo que ha generado un resultado erróneo y que lo descarte como base para futuras conclusiones. Muchos de los servicios no nos permiten evaluar si la reconstrucción ha sido la correcta y la sensación general que tenemos es que si bien la IA es muy potente e impresionante, parece que es enemiga, acérrima en muchos casos de la realidad y más que reconstruir imágenes se las inventa parcialmente y una media verdad.
Esta capacidad debería estar impresa en el hardware, es decir, existir un mecanismo que ante dos imágenes sea capaz de garantizar si una se parece a la otra. Sin embargo, dichas capacidades se obvian por completo en las aplicaciones de reconstrucción de imagen, en especial de cara a las fotos antiguas. Al fin y al cabo no tenemos un original con el que poder compararlos. Se han perdido en la noche de los tiempos y, por tanto, lo que vamos a conseguir en fotos modificadas por la IA no será nunca una reconstrucción de la imagen real.
En resumen, id con cuidado en con la IA y los recuerdos históricos, su uso masivo puede llegar a crear de falsos.