0

El TRUCO que me sirvió para detectar en 5 pasos un AUDIO hecho por inteligencia artificial

En esta nota aprenderás algunos tips de vital importancia si es que recibes una llamado o un audio sospechoso que pudo ser creado con IA para estafarte.

Únete a nuestro canal de WhatsApp
Los ciberdelincuentes están utilizando la inteligencia artificial para clonar audios y así estafar a las personas, principalmente, a los adultos mayores en todo el mundo.
Los ciberdelincuentes están utilizando la inteligencia artificial para clonar audios y así estafar a las personas, principalmente, a los adultos mayores en todo el mundo. | Composición Líbero

Si bien es cierto que la inteligencia artificial ha llegado para ser un gran apoyo para los humanos, también es verdad que se puede utilizar para cosas no tan legales, como puede ser el hecho de recibir un simple audio que intente imitar nuestra voz o la de un ser querido, pero hoy aprenderemos a reconocerlas para evitar estafas.

Audios fraudulentos creados con inteligencia artificial

Y es que en los tiempos que corren, los ciberdelincuentes se han dado a la labor de clonar voces para cometer sus delitos, teniendo entre sus principales blancos a los adultos mayores, población que es la menos relacionada con las últimas tendencias tecnológicas.

En la gran mayoría de los casos, estos crímenes se realizan por medio de llamadas telefónicas y, de acuerdo a la Comisión Federal de Comercio (FCT) de los Estados Unidos, solo en 2022, se reportaron fraudes por esta modalidad por una suma que asciende a los 11 millones de dólares.

5 pasos para reconocer un audio fraudulento creado con IA

Por eso, ante esta preocupante realidad, es que debemos realizar algunos pasos imprescindibles para detectar un audio que ha sido generado por una inteligencia artificial. Toma nota.

  • Estos registros sonoros, por lo general, tienen baja calidad de audio, mostrando también incoherencias en la grabación, por lo que es importantísimo que prestes atención a los cambios de tono, la claridad de la voz.
  • Los audios con IA que clonan voces suelen tener problemas para replicar una voz completamente fidedigna, incapaz de darle emociones a la misma, sonando monótono. Presta atención a la entonación, a las pausas súbitas, pueden ser indicios de una potencial estafa.
  • Los audios clonados por IA suelen presentar otra falla: inconsistencias, es decir, respuestas que no tienen sentido de acuerdo a lo que se está hablando. Suelen cometer errores de simple lógica humana que, al menos todavía, no poseen (afirmaciones absurdas, incoherentes).
  • Es importante verificar la fuente, por lo que debes corroborar una confirmación adicional con otros medios, tales como videollamadas o redes sociales. Si se comunican contigo en nombre de una entidad oficial, hay diversas formas de confirmar la veracidad; si no cuentan con eso, entonces hay que ir con suspicacia.
  • Un último paso importante es que los audios estafa con IA siempre te pedirán información sensible como contraseñas que las entidades oficiales no suelen hacer. Nunca brindes datos personales, financieros, sobre todo si te presionan con insistencia para hacerlo, pues tienden a darte una sensación de urgencia.
Joel Dávila

Redactor de Líbero, sección Ocio. Periodista de la Universidad Jaime Bausate y Meza, con mas de 13 años de experiencia en contenido digital, periodismo institucional y redacción SEO.

Libero Impreso

EDICIÓN DIGITAL

EDICIÓN DIGITAL

OFERTAS DE HOY