Los estafadores ahora usan IA para sonar como miembros de la familia. Esta funcionando.

Los estafadores ahora usan IA para sonar como miembros de.jpg&w=1024

Comentario

El hombre que llamaba a Ruth Card sonaba igual que su nieto Brandon. Entonces, cuando dijo que estaba en la cárcel, sin billetera ni teléfono celular, y que necesitaba efectivo para la fianza, tarjeta codificada para hacer todo lo posible para ayudar.

“Definitivamente fue este sentimiento de… miedo”, dijo. “Que tenemos que ayudarlo ahora mismo”.

Card, de 73 años, y su esposo, Greg Grace, de 75, corrieron a su banco en Regina, Saskatchewan, y retiraron 3000 dólares canadienses ($2207 en moneda estadounidense), el máximo diario. Corrieron a una segunda sucursal por más dinero. Pero un gerente de banco los llevó a su oficina: otro cliente había recibido una llamada similar y se enteró de que la voz inquietantemente precisa había sido falsificada, recordó Card que dijo el banquero. El hombre del teléfono probablemente no era su nieto.

Fue entonces cuando se dieron cuenta de que habían sido engañados.

“Fuimos absorbidos”, dijo Card en una entrevista con The Washington Post. “Estábamos convencidos de que estábamos hablando con Brandon”.

A medida que aumentan las estafas de suplantación de identidad en los Estados Unidos, la terrible experiencia de Card es indicativa de una tendencia preocupante. La tecnología está haciendo que sea más fácil y más barato para los malos actores imitar voces, convenciendo a las personas, a menudo a los ancianos, de que sus seres queridos están en apuros. En 2022, las estafas de impostores fueron la segunda estafa más popular en Estados Unidos, con más de 36,000 informes de personas siendo estafados por quienes se hacen pasar por amigos y familiares, según datos de la Comisión Federal de Comercio. Más de 5100 de esos incidentes ocurrieron por teléfono, lo que representa más de $11 millones en pérdidas, dijeron funcionarios de la FTC.

Los avances en inteligencia artificial han agregado una nueva capa aterradora, que permite a los malos actores replicar una voz con solo una muestra de audio de unas pocas oraciones. Impulsado por IA, un Una gran cantidad de herramientas baratas en línea pueden traducir un archivo de audio en una réplica de una voz, lo que permite que un estafador lo haga “hablar” lo que sea que escriba.

Los expertos dicen que los reguladores federales, las fuerzas del orden público y los tribunales están mal equipados para frenar la creciente estafa. La mayoría de las víctimas tienen pocas pistas para identificar al perpetrador y es difícil para la policía rastrear las llamadas y los fondos de los estafadores que operan en todo el mundo. Y hay pocos precedentes legales para que los tribunales responsabilicen a las empresas que fabrican las herramientas por su uso.

“Es aterrador”, dijo Hany Farid, profesor de ciencia forense digital en la Universidad de California en Berkeley. “Es una especie de tormenta perfecta… [with] todos los ingredientes que necesitas para crear el caos.

Aunque las estafas de impostores vienen en muchas formas, básicamente funcionan de la misma manera: un estafador se hace pasar por alguien de confianza (un niño, un amante o un amigo) y convence a la víctima de que le envíe dinero porque está angustiada.

Pero la tecnología de voz generada artificialmente está haciendo que la artimaña sea más convincente. Las víctimas informan que reaccionan con horror visceral cuando escuchan a sus seres queridos en peligro.

Es un impacto oscuro del reciente aumento de la inteligencia artificial generativa, que respalda el software que crea textos, imágenes o sonidos en función de los datos que recibe. Los avances en las matemáticas y el poder de la computación han mejorado los mecanismos de capacitación para dicho software, lo que ha estimulado a una flota de empresas a lanzar chatbots, creadores de imágenes y creadores de voces que parecen extrañamente reales.

El software de generación de voz de IA analiza lo que hace que la voz de una persona sea única, incluida la edad, el género y el acento, y busca en una amplia base de datos de voces para encontrar voces similares y predecir patrones, dijo Farid.

Luego puede recrear el tono, la madera y los sonidos individuales de la voz de una persona para crear un efecto general similar, agregó. Requiere una pequeña muestra de audio, tomada de lugares como YouTube, podcasts, comerciales, TikTok, Instagram o videos de Facebook, dijo Farid.

“Hace dos años, incluso hace un año, necesitabas mucho audio para clonar la voz de una persona”, dijo Farid. “Ahora… si tienes una página de Facebook… o si grabaste un TikTok y tu voz está allí durante 30 segundos, la gente puede clonar tu voz”.

Empresas como ElevenLabs, una empresa emergente de síntesis de voz con IA fundada en 2022, transforman una breve muestra vocal en una voz generada sintéticamente. a través de una herramienta de texto a voz. El uso del software de ElevenLabs puede ser gratuito o costar entre $5 y $330 por mes, según el sitiocon precios más altos que permiten a los usuarios generar más audio.

Explosión de ElevenLabs en las noticias tras las críticas a su herramienta, que se ha utilizado para replicar voces de celebridades que dicen cosas que nunca hicieron, como Emma Watson recitando falsamente pasajes de “Mein Kampf” de Adolf Hitler. ElevenLabs no devolvió una solicitud de comentarios, pero en un hilo de Twitter la compañía dijo que está incorporando medidas de seguridad para detener el mal uso, incluida la prohibición de que los usuarios gratuitos creen voces personalizadas y el lanzamiento de una herramienta para detectar audio generado por IA.

Pero tales salvaguardas llegan demasiado tarde para víctimas como Benjamin Perkin, cuyos padres ancianos perdieron miles de dólares en una estafa de voz.

Su pesadilla de clonación de voz comenzó cuando sus padres recibieron una llamada telefónica de un presunto abogado, diciendo que su hijo había matado a un diplomático estadounidense en un accidente automovilístico. Perkin estaba en la cárcel y necesitaba dinero para los honorarios legales.

El abogado puso al teléfono a Perkin, de 39 años, quien dijo que los amaba, los apreciaba y necesitaba el dinero. Unas horas más tarde, el abogado volvió a llamar a los padres de Perkin y les dijo que su hijo necesitaba $21,000 ($15,449) antes de una cita en la corte ese mismo día.

Los padres de Perkin le dijeron más tarde que la llamada parecía inusual, pero que no podían quitarse la sensación de que realmente habían hablado con su hijo.

La voz sonaba “lo suficientemente cerca como para que mis padres realmente creyeran que hablaron conmigo”, dijo. En su estado de pánico, corrieron a varios bancos para obtener efectivo y le enviaron el dinero al abogado a través de una terminal de bitcoin.

Cuando el verdadero Perkin llamó a sus padres esa noche para un registro informal, estaban confundidos.

No está claro de dónde sacaron su voz los estafadores, aunque Perkin ha publicado videos en YouTube hablando de su afición por las motos de nieve. La familia presentó un informe policial ante las autoridades federales de Canadá, dijo Perkin, pero eso no le devolvió el dinero.

“El dinero se ha ido”, dijo. “No hay seguro. No hay forma de recuperarlo. Se fue.”

Will Maxson, subdirector de la división de prácticas de marketing de la FTC, dijo que rastrear a los estafadores de voz puede ser “particularmente difícil” porque podrían estar usando un teléfono en cualquier parte del mundo, lo que dificulta incluso identificar qué agencia tiene jurisdicción sobre un caso particular.

Maxson instó a la vigilancia constante. Si un ser querido le dice que necesita dinero, ponga esa llamada en espera e intente llamar a su familiar por separado, dijo. Si una llamada sospechosa proviene del número de un familiar, comprenda que también puede ser falsificado. Nunca pague a las personas con tarjetas de regalo, porque son difíciles de rastrear, agregó, y tenga cuidado con las solicitudes de efectivo.

Eva Velásquez, directora ejecutiva del Centro de Recursos para el Robo de Identidad, dijo que es difícil para las fuerzas del orden rastrear a los ladrones que clonan la voz. Velásquez, quien pasó 21 años en la Oficina del Fiscal de Distrito de San Diego investigando el fraude al consumidor, dijo que los departamentos de policía podrían no tener suficiente dinero y personal para financiar una unidad dedicada a rastrear el fraude.

Los departamentos más grandes tienen que asignar recursos a los casos que se pueden resolver, dijo. Es posible que las víctimas de estafas de voz no tengan mucha información para brindar a la policía para las investigaciones, lo que dificulta que los funcionarios dediquen mucho tiempo o personal, especialmente para pérdidas menores.

“Si no tienes ninguna información al respecto”, dijo. “¿Por dónde empiezan?”

Farid dijo que los tribunales deberían responsabilizar a las empresas de inteligencia artificial si los productos que fabrican resultan en daños. Juristas, como el juez de la Corte Suprema Neil M. Gorsuch, dijeron en febrero que las protecciones legales que protegen a las redes sociales de demandas podrían no aplicarse al trabajo creado por AI.

Para Card, la experiencia la ha vuelto más vigilante. El año pasado, habló con su periódico local, el puesto de liderazgo de Regina, para advertir a la gente sobre estas estafas. Como no perdió dinero, no lo denunció a la policía.

Sobre todo, dijo, se siente avergonzada.

“No fue una historia muy convincente”, dijo. “Pero no tenía que ser mejor de lo que era para convencernos”.



Fuente del artículo

Deja un comentario