“Mamá, ayúdame”: Inteligencia Artificial imita voz de adolescente para fingir secuestro y exigir rescate

“Mamá, ayúdame”: Inteligencia Artificial imita voz de adolescente para fingir secuestro y exigir rescate. Foto: Freepik.

Jennifer DeStefano, madre de una adolescente de 15 años, vivió minutos de terror cuando fue extorsionada por teléfono por un presunto secuestrador que tenía a su hija. Ella nunca dudó, porque se oía una voz exacta a la de su niña. Solo que en realidad no lo era: se trataba de una clonación realizada con Inteligencia Artificial.


La Inteligencia Artificial (IA) puede llegar a límites inesperados, hasta el punto en que estaría siendo utilizada para cometer delitos como fraudes. Eso fue lo que le ocurrió a una mujer llamada Jennifer DeStefano, quien afirmó que estafadores utilizaron esa tecnología para clonar de forma exacta la voz de su hija adolescente y simular un secuestro, para posteriormente exigir un rescate de una alta cifra de dinero.

DeStefano, cuya familia es originaria de Arizona, Estados Unidos, contó al medio local Arizona’s Family los detalles de esta inolvidable llamada en que presenció la suplantación de identidad de Briana, su hija de 15 años.

Un día, la mujer recibió una llamada a su celular desde un número desconocido. Por un segundo pensó en no contestar y que arrojara el buzón de voz, pero decidió saber qué era: justo en esa jornada Briana había ido a esquiar.

Jennifer DeStefano. Foto: Arizona's Family.

Al responder, al otro lado del teléfono escuchó algo que no esperaba oír en lo absoluto. Era la voz de su hija que decía “¡Mamá!” mientras sollozaba. “Dije, ‘¿Qué pasó?’ Y ella dijo: ‘Mamá, me equivoqué’”, recordó DeStefano.

A continuación solo vinieron minutos de terror en la madre de Briana y se inició la extorsión. En la llamada apareció la voz de un hombre que le ordenaba a la niña echar la cabeza para atrás y recostarse.

“Este hombre se pone al teléfono y dice: ‘Escucha aquí. Tengo a tu hija. Llama a la policía, llama a cualquiera, la voy a llenar de drogas”, dijo el intimidante hombre, contó DeStefano. “Me saldré con la mía con ella y la dejaré en México”, le reiteró el supuesto secuestrador.

Ella no podía creer lo que oía. Jamás dudó de que quien pedía auxilio era su hija, porque sonaba exactamente como ella. De pronto, empezó a oír las palabras de miedo: “Ayúdame, mamá. Por favor, ayúdame. Ayúdame”.

Desde ese momento el hombre comenzó a pedir una gran cifra para regresar a la adolescente a su hogar. Al principio exigió 1 millón de dólares, pero luego lo disminuyó a 50.000. Mientras estaban negociando DeStefano estaba en compañía de otras mujeres, fuera de su casa, por lo que alguien la ayudó a llamar a emergencias en ese preciso instante. Otra persona también contactó a la pareja de DeStefano, quien estaba con la niña ese día.

Jennifer DeStefano junto a su hija.

Ahí recién supo que su hija estaba bien y no era la terrorífica voz en el teléfono.

“Ella estaba arriba en su habitación diciendo, ‘¿Qué? ¿Qué está pasando?’”, narró DeStefano. En cosa de segundos, la mujer pasó del miedo al enojo hacia esas personas que estaban fingiendo un secuestro de uno de sus seres más queridos, por lo que terminó la llamada.

“Era completamente su voz. Era su inflexión. Era la forma en que ella habría llorado”, recordó al citado medio. “Nunca dudé ni por un segundo que era ella. Esa es la parte extraña que realmente me conmovió”.

Aunque las expresiones que DeStefano escuchó en esa llamada eran idénticas a las de su hija, ella jamás emitió esas palabras. La realidad es que su voz había sido imitada por la IA, una artimaña impulsada por personas que buscaban estafar con dinero a la familia. Por el momento, la identidad de los responsables no ha podido sido identificada.

IA y clonación de voz: un peligro latente

Para expertos en esta área como Subbarao Kambhampati, académico de informática en la Universidad Estatal de Arizona y que también ha estudiado de cerca las aristas de la IA, la clonación de voz está avanzando a niveles cada vez más perfeccionados. A diferencia de como ocurría en el pasado, ahora solo basta una muestra mínima para conseguir clonar una voz, advirtió Kambhampati.

“Con los tres segundos, puede acercarse a cómo suena exactamente”, comentó el especialista. “La mayor parte de la clonación de voz captura tanto la inflexión como la emoción”.

El supuesto secuestrador exigió un monto monetario a Jennifer DeStefano para devolverle a su hija. Foto: Getty Images.

Pero hay otro factor adicional, indica el profesor: el poco control que existe actualmente sobre el aprendizaje profundo de la IA. “Es un juguete nuevo, y creo que podría tener buenos usos, pero ciertamente también puede haber usos bastante preocupantes”, explica.

Consultados por el canal Arizona’s Family, desde el FBI explicaron que es recomendable tener las cuentas en redes sociales con privacidad y no de forma pública a desconocidos, puesto que los estafadores han recurrido a esos espacios para poder realizar sus delitos.

Otras medidas que pueden servir de ayuda según Dan Mayo, agente a cargo de la oficina del FBI en Phoenix, es que las personas deben estar alerta si reciben llamadas de números de teléfono con códigos de área extraños o números internacionales. También hay que prestar atención a los casos en que el extorsionador no deja hablar directamente con la persona que está siendo amenazada.

“Si tienen a alguien de su interés, conocerá muchos detalles sobre ellos que este estafador no conocerá. Empiezas a hacer preguntas sobre quién es y diferentes detalles de sus antecedentes que no están disponibles públicamente, te darás cuenta rápidamente de que es un estafador”, afirmó el agente del FBI.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.