Noticias, Gadgets, Android, Móviles, Descargas de Aplicaciones

3 amenazas creadas por deepfakes que la tecnología no puede resolver

Los deepfakes son cada vez más comunes y cada vez más usuarios pueden usarlos bajo demanda. La tecnología ayudará a solucionar estos problemas, pero lo más importante será dar los pasos necesarios en el ámbito social y jurídico.

Digamos que tenemos una máquina llamada Detect Deepfake y puede marcar cualquier video deepfake como deepfake, sin importar cuán bueno sea. También se sabe que todos los videos que este dispositivo no marca son reales. En otras palabras, los videos se pueden separar con precisión y sin errores.

Entonces, ¿será suficiente este invento para nosotros en la lucha contra las falsificaciones profundas? Se dice que los videos deepfake muy realistas pueden aparecer dentro de los seis meses. En otras palabras, las elecciones presidenciales de EE. UU. en 2020 pueden convertirse en un campo de batalla de videos falsos. Los tecnólogos, por supuesto, abordan este tema como “combatamos fuego con fuego” (o tecnología con tecnología). Facebook y Microsoft están tratando de desarrollar una “investigación de la escena del crimen en los medios” con el apoyo del gobierno de los EE. UU. Google tiene una enorme base de datos para la investigación.

Aunque deepfake es una técnica nueva, siempre existía la amenaza que creaba para difundir información falsa y dañar a alguien. Aunque una máquina perfecta puede capturarlo todo, no puede capturar esta dimensión del trabajo.

Problema n. ° 1: los detectores de deepfake no pueden evaluar los contenidos

El artista de teatro Levent Kırca, a quien perdimos en los últimos años, hizo el contenido más cercano al deepfake en nuestro país en un momento dado. Todos sabíamos que las imágenes del actor, que interpretó muchos nombres con maquillaje plástico en ese momento, eran falsas. Hoy, cuando se falsifica profundamente una imagen similar, el detector no sabrá si es maliciosa, humorística o ficticia. La profesora Kate Klonick dice que demasiada automatización conducirá a decisiones erróneas o censura, al tiempo que dice que la diferencia entre ficción, humor y noticias falsas es filosófica.

La solución a esta situación es mejorar la moderación y, a veces, arriesgarse a perder algo para hacer lo correcto. Es necesario formar moderadores más educados y más capacitados.

Problema n.º 2: es posible que los detectores de deepfake no protejan a quienes más lo necesitan

Cuando se introduce por primera vez una nueva tecnología, su uso malicioso está dirigido principalmente a las personas que se consideran socialmente vulnerables. Cuando la tecnología de Photoshop llegó por primera vez a nuestras vidas en los años noventa, las campañas de desprestigio se hacían colocando los rostros de varias mujeres sobre los cuerpos de mujeres en películas para adultos. ¿Conclusión? Nadie hizo nada al respecto, hasta que la amenaza se dirigió a todos. “Si hubiéramos prestado suficiente atención al problema de la explotación sexual de mujeres sin consentimiento, ahora estaríamos en un lugar mejor, social, legal y culturalmente, para enfrentarlo”, dice Mary Anne Franks de la Universidad de Miami.

¿Qué se puede hacer al respecto? En primer lugar, incluso si podemos crear dicho contenido, no hacerlo es el primer paso. En segundo lugar, si podemos desarrollar una tecnología que pueda ayudar con este problema, la pondremos a disposición de todos.

Problema n.º 3: hasta que se detecte el deepfake, puede ser demasiado tarde para la víctima

En primer lugar, una vez que se publica una noticia, la información de que esa noticia es falsa no se propaga con la misma velocidad. El ejemplo más simple es que mientras todos escuchan casi todas las noticias falsas que se hacen en nuestro país, nadie mira a las organizaciones que verifican la veracidad de las noticias. Hay muchos sitios web y organizaciones no gubernamentales establecidos para este propósito en nuestro país.

Además, no existen muchas sanciones graves por utilizar las imágenes de una persona en contra de su voluntad. Se piensa que se deben hacer arreglos legales al respecto.

Como solución a este problema, también se debe definir el delito de falsificación digital.

Fuente: https://www.technologyreview.com/s/614446/deepfake-technology-detection-disinformation-harassment-revenge-porn-law/