Encuentran imágenes de pacientes médicos en los entrenamientos de un popular sistema de inteligencia artificial
El nombre de los pacientes no están vinculados a las fotografías, pero les molestan que las imágenes médicas se hayan convertido en un producto de consentimiento o recurso.
Lapine, una artista de inteligencia artificial, descubrió fotografías de ella tomadas por su médico en 2013. La afectada encontró las imágenes de su rostro en la web ‘Have I Been Trained’, teniendo en cuenta que solo se habían autorizado para su uso privado en un formulario de autorización.
Lapine tiene una condición genética llamada disqueratosis congénita. En 2013, se sometió a una serie de procedimientos para restaurar los contornos faciales después de haber pasado por cirugías de boca y mandíbula, por consiguiente, dichas imágenes hacen referencia a las intervenciones con el cirujano.
La artista afirma en ArsTechnica que “el sanitario que poseía las fotos médicas murió de cáncer en 2018. Sospecho que de alguna manera dejaron la custodia de su consultorio después de eso, es el equivalente digital de recibir propiedad robada. Alguien robó la imagen de los archivos de mi médico fallecido y terminó en algún lugar en línea”.
🚩My face is in the #LAION dataset. In 2013 a doctor photographed my face as part of clinical documentation. He died in 2018 and somehow that image ended up somewhere online and then ended up in the dataset- the image that I signed a consent form for my doctor- not for a dataset. pic.twitter.com/TrvjdZtyjD
— Lapine (@LapineDeLaTerre) September 16, 2022
La usuaria prefiere ocultar su identidad por razones de privacidad. Con registros y fotos proporcionados, Ars Technica confirmó que hay imágenes médicas de ella a las que se hace referencia en el conjunto de datos de LAION-5B.
El nombre de Lapine no está vinculado a las fotos, pero le molesta que las imágenes médicas se hayan convertido en un producto de consentimiento o recurso. Mientras tanto, no entiende cómo falló la cadena de custodia de sus imágenes privadas, pero aun así le gustaría que sus imágenes fueran eliminadas del conjunto de datos de LAION.
Los expertos señalan en Ars Technica que es posible eliminar ciertas imágenes. Este descubrimiento se produce cuando la comunidad de artistas se enfrenta a un problema relacionado con los modelos de imágenes de inteligencia artificial que utilizan el trabajo para la formación sin un previo consentimiento.
Fuente: 20minutos.es