Ver para (no) creer: deepfakes, inteligencia artificial y bots, las tecnologías que van a cambiar lo que percibimos como real o inventado

Como un mago que busca engañar al espectador, los avances en inteligencia artificial, en poder de cómputo y en tecnología crean escenarios falsos, pero con apariencia real para engañar al consumidor. Esto hace que muchas veces no podamos saber si lo que vemos o escuchamos es la invención de una máquina o si un rostro existe en el mundo o fue creado por un algoritmo.¿Estamos preparados para estos avances tecnológicos? ¿O cada vez más vamos a caer en noticias falsas que se apoyan en imágenes, textos o audios tan “reales” que solo los especialistas podrían descubrirlos?Hay una anécdota que tiene más de 100 años, pero que para una experta puede ser un gran ejemplo de lo que vendrá con este tipo de innovaciones. “Cuando se estrenó en 1896 frente al público una de las primeras películas de la historia, La llegada de un tren a la estación de los hermanos Lumière, esta película produjo pánico entre las personas que estaban en la sala. Durante 50 segundos muestra un tren con dirección hacia los espectadores y los asustó: tuvieron miedo de que atravesara la pantalla de tela sobre la que se proyectaba la película. Esta anécdota, que no sabemos si es verdadera o no, es interesante porque nos habla de los miedos, los temores y los procesos de aprendizaje que acompañan a los usos de determinado medio en la sociedad”, explica Mora Matassi, máster en Tecnología, Innovación, y Educación por la Universidad de Harvard, y Máster en Medios, Tecnología, y Sociedad por la Universidad de Northwestern, en EE.UU.Mora Matassi tiene máster en Tecnología, Innovación, y Educación por la Universidad de Harvard, y un Máster en Medios, Tecnología, y Sociedad por la Universidad de Northwestern“Hoy sería raro que una persona adulta tuviera miedo de lo que está observando en la pantalla, porque en general entendemos las condiciones de producción de eso que vemos. Si lo extrapolamos al caso de cómo las personas pueden llegar a recibir o interpretar videos que utilizan inteligencia artificial para adulterar una voz o una imagen, podríamos decir que es probable que con el tiempo las personas desarrollen mecanismos de entendimiento de las condiciones de producción de lo que observan, y que por lo tanto puedan eventualmente discernir colectiva o individualmente si se trata de un video con una noticia falsa o ‘real’ “, afirma la especialista.Deepfakes para poner una cara en otro cuerpoElon Musk recomendando una criptomoneda, Tom Cruise con un rostro joven sonriendo a cámara o el mismísimo Luke Skywalker, con la cara de joven Mark Hamill en pleno 2021, son algunos de los ejemplos más recientes de deepfakes, videos en los que las caras de los protagonistas fueron reemplazadas usando la tecnología.A veces es un recurso narrativo, como la participación de un personaje de Star Wars entrado en años en una serie reciente; pero otras puede usarse para estafas, como en el caso del fundador de Tesla y SpaceX, cuyo rostro fue una excusa para que la gente invierta en un negocio vinculado a activos digitales. Tampoco faltan los que lo hacen “porque pueden”, como la última encarnación de Rambo con la cara de Guillermo Francella, bautizada “Rambocella”, creada por la cuenta DeepfakesAR.“Parte de nuestro consumo de noticias y de circulación de información tiene un gran componente de social; lo que recibimos en general llega en un contexto social y lo conversamos y lo comprendemos en entornos sociales, ya sea con nuestro círculo más íntimo, un grupo de WhatsApp familiar, o un ámbito público, como Twitter. Ese mecanismo de comprensión de las condiciones de producción de un medio va a atravesar la manera en la que recibimos a estos productos y nos va a permitir -acompañado de alfabetización digital- poder distinguir algo que fue adulterado de algo que no fue adulterado. Incluso también me parece que las tecnologías de inteligencia artificial que ayudan a crear estos vídeos adulterados también van a ser tecnologías que nos permitan o que nos ayuden a poder distinguir entre algo que fue falso de lo que fue verdadero”, afirma Matassi.Una voz inconfundible… y sintéticaCuando vemos, o mejor dicho escuchamos, a una persona hablar… ¿Es ella? Es su voz. Su entonación. Su timbre y acento. Pero puede ser también producto de la tecnología y la inteligencia artificial. Un caso reciente, de Hollywood, es el de Val Kilmer.Un cáncer de laringe dejó al actor sin voz. Pero para que su personaje de Iceman vuelva a Top Gun: Maverick, secuela del clásico de los 80 con Tom Cruise, lograron entrenar a un software con la voz de Kilmer, su acento y hasta su forma de hablar, para que diga sus líneas en la película.Tenemos un caso en la Argentina, el del senador Esteban Bullrich, que afectado por el ELA, recurre también a una plataforma que permite crear una versión digital de la voz de una persona con problemas o desórdenes del habla. Gracias a esto, mediante una computadora, puede escribir lo que quiera y su propia voz saldrá por un altavoz.Aunque estos casos son extremos, y vinculados a problemas de salud, la tecnología está al alcance de cualquiera con una computadora. Hay infinidad de apps o plataformas online como FakeYou, que permiten escribir un texto y que sea leído con la voz de personajes del cine y la televisión, incluso animados, o también relatores de fútbol, políticos o famosos. Pero en 2016 ya Adobe mostraba VoCo, el Photoshop del audio: con una frase de base permite generar cualquier texto hablado, sea de una persona presente o ausente, viva o muerta.Rostros que no existen y el arte de las máquinasYa vimos que se puede hacer que una persona diga algo que no dijo. Crear audios o sintetizar una voz de tal manera que no descubramos que está hecha desde una computadora. Pero todavía hay más cosas que el software pueden lograr para acercarnos un poco más a un futuro distópico como el de Terminator: crear rostros, caras de personas que no existen.En ThisPersonDoesNotExist (esta persona no existe) podemos ver, cada vez que entramos, la cara de una persona. Excepto que no es una persona, es un desarrollo con tecnología de la empresa Nvidia para mostrar lo que pueden hacer los algoritmos. Inventar rostros que parecen reales pero que no lo son.Todos los rostros son creados en el momento por la computadora; son únicos e irrepetiblesAunque pueda parecer un juguete simpático, o una forma de hacer que al crear un juego tengamos rostros que no le pertenecen a alguien, esta plataforma también puede ser una aliada de estafadores, personas que simulan ser otra en apps de citas o similares, que en vez de robarle la cara a un tercero -con el riesgo de ser descubiertos al buscar las fotos en Internet- tengan un rostro sin pasado en Internet… o con el que ellos decidan crear.Otro de los booms en las redes es DALL-E 2, una inteligencia artificial que puede convertir palabras o pedidos -en general bizarros- en imágenes. La compañía explica que el sistema puede combinar diferentes ideas, estilos y características visuales. Para muestra basta un botón: alguien dijo “R2D2 siendo bautizado” y la plataforma ofreció estas imágenes. (Sí, la cuenta de Twitter recopila creaciones raras de DALL-E. Google ya anunció su propia IA que puede crear imágenes a partir de un texto descriptivo, bautizada IMAGEN.pic.twitter.com/5V237Z4P1o— Weird Dall-E Generations (@weirddalle) June 12, 2022 Chats del más alláLa pérdida de un familiar o amigo puede ser dura. Y el recuerdo de esa persona se mantenía, en otra época, con fotos o cartas. O más acá en el tiempo, con un mensaje de voz en el contestador, algo que ahora se multiplica hasta el infinito con cientos de audios de WhatsApp que pueden ser repetidos hasta el infinito.¿Y si pudiéramos “chatear” con esa persona? En realidad no sería con ese ser querido sino con una inteligencia artificial programada con sus palabras, su estilo y el tipo de respuestas que nos daría. Un chatbot, como los que usamos constantemente en diferentes plataformas, pero para hablar con los muertos. Un deadbot; la versión de ciencia ficción ya tiene su capítulo de Black Mirror, pero no está tan lejano.Un capítulo de Black Mirror, Be Right Back (Vuelvo enseguida) relata la historia de una mujer que contrata un servicio que recrea digitalmente a su marido muertoHernán Liendo es CTO y Co-founder de Botmaker, una empresa dedicada a la creación de bots para redes sociales y plataformas como WhatsApp. ¿Su creación más famosa? Boti, el servicio del Gobierno de la Ciudad de Buenos Aires al que muchos porteños le escribieron sin parar en época de vacunas y testeos de Covid-19.Pero hablar con un robot no es lo mismo que hablar con una persona. ¿O sí?“Las personas se dan cuenta cuando hablan con un bot y cambian la forma de interactuar. Suelen ser más directos y no tienen la misma cordialidad o formas de comunicarse que con un humano. La excepción suelen ser los niños o los adultos mayores, que agradecen, saludan más y tienen una interacción más cálida. Los más chicos y adolescentes además se enganchan mucho, experimentan, les piden que les cuenten chistes. Tenemos especialistas que trabajan en este tipo de interacciones y evolucionan constantemente”, explica Liendo.¿Podrán ser una realidad los chatbots que no se distingan de una persona? El fabricante de bots no tiene dudas. “Totalmente. Van a tener referencias de conocimiento de las personas, se van a ir reentrenando los modelos. Hay algunos más específicos que aprenden a hablar en redes sociales, pero pueden servir para diferentes plataformas. Los robots nos sorprenden y pueden evolucionar”, detalla Liendo.Blake Lemoine también lo cree: el nombre de este ingeniero de Google se hizo conocido porque declaró, hace unos días, que un motor conversacional que desarrolla la empresa, llamado LaMDA, tomó conciencia de sí mismo. Está -a su manera- vivo. Otros expertos en el tema consideran que Lemoine está equivocado y que simplemente es víctima del éxito de esa herramienta, diseñada para ser capaz de charlar de la forma más creíble posible.Blake Lemoine asegura que LaMDA tiene personalidad, derechos y deseosTHE WASHINGTON POSTAunque para muchos podría ser interesante tener en WhatsApp a una persona querida para “seguir chateando”, este tipo de desarrollos podría afectar el concepto de duelo y cómo tratamos la pérdida de otras personas.“Aparecen planteos éticos muy profundos que hablan no solo de la gestión que hacemos de nuestra vida digital, sino también de cómo percibimos ideas de vida, de muerte y de duelo -afirma Matassi-. El investigador Davide Sisto plantea que cuando las personas utilizan este tipo de tecnologías pueden llegar a modificar o moldear el proceso de duelo porque justamente lo que hacen es sostener a lo largo del tiempo la presencia virtual de una persona, sus huellas digitales”.Así, surge la duda: ¿cómo haremos, en el futuro, para determinar si eso que vemos en la pantalla (o escuchamos a través de un dispositivo digital) es verdadero? Las computadoras ya pueden generar imágenes y videos ultra realistas; agregarle el rostro de una persona real o ficticia, animarlo sumarle una voz creíble, o hacerla conversar sobre cualquier tema. Esa plasticidad infinita de lo digital, como pensaba el escritor de ciencia ficción William Gibson (todo lo que es digital puede ser modificado o recreado), obligará a repensar la idea de “ver para creer”.Alejo ZagalskyTemasInteligencia artificialRealidad virtualConforme a los criterios deConocé The Trust ProjectOtras noticias de Inteligencia artificialPara educar a los programas de análisis de imágenes. 700 voluntarios le enseñan a computadoras cómo reconocer obras de arteInteligencia artificial. Qué son los gemelos digitales, para qué sirven y por qué no falta nada para que tengas uno”Pide ser reconocido como empleado”. Según un ingeniero un programa de inteligencia artificial de Google cobró conciencia propia

Fuente