Entradas Populares

La Elección Del Editor - 2024

No le creas a nadie: lo que amenaza la red neuronal, hacer porno.

Dmitry Kurkin

Videos porno falsosen el que la estrella de la película "Wonder Woman" Gal Gadot supuestamente teniendo relaciones sexuales con su hermanastro, que apareció en la Web esta semana, resultó no solo ser una falsificación, sino una falsificación generada por la inteligencia artificial.

El autor del video, un usuario anónimo de reddit con el apodo deepfakes, en una entrevista con Vice, confirmó que usó la red neuronal para "tomar una foto" de la cara de Gadot al cuerpo de la actriz porno. Lo falso, en general, es notorio, y las trampas profundas no planeaban ganar dinero con eso, dijo, él solo quería comprobar cuán fácil sería hacerlo usando la IA. Y él tiene malas noticias para nosotros: fue muy fácil hacer porno falso en casa.

El problema, en general, no está en los pornofeaks en sí mismos: la demanda de fotos y videos, donde actores y actrices como celebridades están teniendo sexo, fue, estará y estará con los fetichistas y amantes sensacionales. Sobre la similitud externa con las estrellas en la industria del porno, se están haciendo carreras completas; este fenómeno incluso dio lugar a un destacado titular de la prensa amarilla: "El enano-porno Gordon Ramsay descubierto muerto en un agujero de tejón".

Pero si antes de la producción se necesitaba tiempo, recursos y algo de habilidad, entonces una red neuronal, entrenada para soldar caras a una imagen, simplifica enormemente la tarea. Los robots se quedan, no un hombre, y los robots se vuelven más inteligentes de vez en cuando, lo que significa que las falsificaciones se verán cada vez más confiables. El usuario de Deepfakes aclaró que recopiló su software de AI de los elementos de chatarra que se encuentran en las bibliotecas de código abierto, y tomó fotos y videos en sitios públicos y de alojamiento como YouTube. En pocas palabras, todas las herramientas para generar pornofeikov se encuentran bajo su nariz, no solo con él, sino entre millones de personas en todo el mundo.

Y esto, estrictamente hablando, ni siquiera las noticias. En 2003, los expertos de la Universidad de Salud y Ciencia de Oregón advirtieron que los fraudes de audio son "fáciles de hacer y difíciles de determinar". Para 2017, la predicción se hizo realidad y hubo grabaciones de voz falsas generadas por redes neuronales, que son muy difíciles de distinguir de las reales. Siguiendo el audio, el video fue detenido. El desarrollo del personal de la Universidad de Washington sincroniza las expresiones faciales del rostro de una persona con su discurso: en el video clip con Barack Obama presentado, por ejemplo, solo el audio está presente, la imagen es generada por el programa. Conecte uno con el otro, y ahora hay listos videos falsos en los que, digamos, un político liberal conocido "confiesa" sus simpatías por Hitler.

Se necesita un poco de imaginación para imaginar cómo los abusos a los que puede llegar esa inteligencia artificial: los chatbots de Microsoft, que los trolls de Twitter se han vuelto racistas en menos de un día, parecerán una bonita broma contra ellos. Y, por supuesto, la tecnología Porno no está amenazada principalmente por Gal Gadot, Taylor Swift o Jennifer Lawrence. Están suficientemente seguros para contratar un ejército de especialistas en TI que reconocen una falsificación y una flota de abogados que demandarán a cualquiera que intente usar estas falsificaciones para beneficio personal.

No, los simples mortales serán víctimas de nuevos algoritmos inofensivos. Las falsificaciones digitales se pueden usar para pornografía, acoso cibernético, hostigamiento de redes, chantaje y manipulación por parte de personas que son fácilmente sugestionables y no siguen particularmente las noticias del campo de las tecnologías avanzadas ("Su hija fue grabada en video, transfiere dinero inmediatamente, de lo contrario se verá TODO"). Y no estamos hablando necesariamente de pornografía: también se pueden lanzar falsificaciones a la Red para la propaganda política y la incitación al odio.

"¡Pero esto es monstruoso!" Sí, monstruoso, y no es el codificador de Deepfakes el que tiene la culpa. Como los piratas informáticos a veces ingresan en los sistemas bancarios no para robar dinero, sino para señalar al departamento de defensa cibernética las brechas de seguridad, así fue inventado por un programador de AI anónimo que nos pone frente a un hecho: la era de las falsificaciones digitales no es una historia de horror antiutópica. "Black Mirror", y la realidad que viene. Aún no ha sido comprendida por la ética moderna (¿se puede considerar a los pornófilos como una invasión de la privacidad de otras personas?), Ni por la ley vigente. Pero es en ella que de alguna manera tenemos que vivir en los próximos años. Por lo tanto, es necesario desarrollar un antídoto contra dicho relleno.

Los curadores del diccionario Collins llamaron al término "noticias falsas" la expresión de 2017, enfatizando así que el usuario promedio es adicto a los clics y a los titulares sensacionales sin perder tiempo para verificar la autenticidad de la información. Mientras tanto, las noticias falsas pueden influir en los resultados de las elecciones y los referendos. Y esto también es parte de la nueva realidad en la que ya existimos y en la que tendremos que aprender a ser menos frívolos.

Las redes sociales ya han hecho de Internet una casa con paredes de vidrio donde millones de personas pueden ver tu vida todos los días, incluso cuando no la quieres. Ahora es obvio que tampoco hay una puerta en esta casa: cualquiera puede intentar invadir tu espacio personal, usar la IA para atornillar tu cara al pornorol o la película "El Señor de los Anillos". La privacidad está muerta, pero no solo Big Brother es culpable de esto en forma de servicios especiales y corporaciones globales, sino también de nosotros mismos.

El mundo de las falsificaciones digitales está llegando, pero esta no es una razón para el pánico, la paranoia, la negativa a usar Internet o los requisitos para prohibir las redes neuronales. Esta es una razón para pensar sobre la higiene de la red y la nueva ética, que solucionará de una vez por todas las cosas que usar la imagen de otra persona para crear un falso digital es vil e ilegal. Los momentos en que las personas creían incondicionalmente todo lo que dicen en la televisión (incluso si dicen que "Lenin era un hongo") se están desvaneciendo. De la misma manera, gradualmente nos acostumbramos a no creer todo lo que está escrito en Internet.

CubiertaRegistros de deformación

Mira el video: El control de la sexualidad y el trauma de la concepción. (Abril 2024).

Deja Tu Comentario