Siete formas en que los ciberdelincuentes utilizan la IA para estafas románticas

Las aplicaciones de citas online siempre han sido un foco de estafas románticas. Los ciberdelincuentes van más allá para robar dinero, información personal y fotografías explícitas. Encontrarás sus perfiles falsos por todas partes.

Y con la proliferación de herramientas de inteligencia artificial generativa, las estafas románticas son cada vez más fáciles de ejecutar. Bajan las barreras de entrada. Aquí hay siete formas comunes en que los estafadores románticos explotan la IA y cómo usted puede protegerse.

1. Envío masivo de correos electrónicos generados por IA

Los correos electrónicos no deseados son cada vez más difíciles de filtrar. Los estafadores románticos abusan de las herramientas de inteligencia artificial generativa para escribir mensajes engañosos y convincentes y crear múltiples cuentas en cuestión de horas. Se acercan a cientos casi al instante.

Verá mensajes de spam generados por IA en varias plataformas, no solo en su bandeja de entrada de correo electrónico. Tomemos como ejemplo la estafa del número equivocado. Los delincuentes envían en masa lindos selfies o fotos sugerentes. Y si alguien responde, lo considerarán un error inocente.

También te puede interesar7 errores que se deben evitar al utilizar herramientas de IA generativa7 errores que se deben evitar al utilizar herramientas de IA generativa

Una vez que alguien esté en línea, será transferido a otra plataforma de mensajería (por ejemplo, WhatsApp o Telegram). La mayoría de los planes duran semanas. Los estafadores generan confianza gradualmente antes de pedir a sus víctimas que se unan a planes de inversión, paguen sus facturas o paguen sus viajes.

Manténgase seguro evitando por completo los mensajes de spam. Limite su interacción con extraños, independientemente de su apariencia o de lo que ofrezcan.

2. Responder rápidamente a más conversaciones

Los bots se están extendiendo como la pólvora en línea. Imperva informa que los robots malos representaron el 30 por ciento del tráfico web automatizado en 2022. Encontrarás uno a los pocos segundos de pasar por las coincidencias de Tinder.

Una de las razones de este repentino aumento de bots es la proliferación de herramientas de inteligencia artificial generativa. Producen robots a granel. Simplemente ingrese el mensaje correcto y su herramienta presentará un fragmento de código completo y eficiente para la generación de bots.

También te puede interesarGPT frente a BERT: ¿Cuáles son las diferencias entre los dos modelos de lenguaje más populares?GPT frente a BERT: ¿Cuáles son las diferencias entre los dos modelos de lenguaje más populares?

Sepa cuándo está hablando con un bot. Aunque la IA utiliza un tono conversacional natural, su diálogo todavía suena monótono e incómodo. Después de todo, los chatbots simplemente siguen patrones. Podría producir respuestas similares a diferentes preguntas, declaraciones y solicitudes.

3. Crear múltiples identidades a partir de imágenes robadas

Los generadores de arte con IA manipulan imágenes. Tome la siguiente demostración como ejemplo. Le suministramos a Playground AI una fotografía sincera de un cantante famoso; la plataforma produjo tres variaciones en segundos.

Sí, tienen defectos. Pero tenga en cuenta que utilizamos una herramienta gratuita que ejecuta un modelo obsoleto de conversión de texto a imagen. Los estafadores producen resultados más realistas con iteraciones sofisticadas. Pueden renderizar rápidamente cientos de fotografías manipuladas y personalizadas a partir de unas pocas muestras.

Desafortunadamente, las imágenes de IA son difíciles de detectar. Su mejor opción sería realizar una búsqueda inversa de imágenes y examinar los resultados relevantes.

También te puede interesarCómo y dónde encontrar los mejores memes generados por IACómo y dónde encontrar los mejores memes generados por IA

4. Creación de perfiles que parecen engañosamente auténticos

Los robots se acercan a las víctimas en masa. Por lo tanto, los estafadores románticos que prefieren un plan dirigido crean sólo uno o dos perfiles que parecen auténticos. Utilizarán la IA para parecer convincentes. Las herramientas de IA generativa pueden componer descripciones de apariencia auténtica que suenen naturales y genuinas; La mala gramática ya no será un problema.

Aquí ChatGPT sugiere algunos pasatiempos para incluir en un perfil de citas.

Y aquí está ChatGPT escribiendo una biografía completa para tu perfil de citas.

Dado que este proceso consume mucho tiempo, también requiere una mayor recompensa. Por eso, los estafadores tienden a pedir más. Una vez que se ganen su confianza, le pedirán ayuda con varios “problemas”, como facturas del hospital, pagos de préstamos o tasas de matrícula. Algunos incluso afirmarán que te visitarán si cargas con su billete.

También te puede interesarAplicaciones móviles de Microsoft 365 configuradas para actualizaciones de productividad centradas en la IAAplicaciones móviles de Microsoft 365 configuradas para actualizaciones de productividad centradas en la IA

Estos ciberdelincuentes son expertos en manipular a las víctimas. La mejor táctica es evitar interactuar con ellos desde el principio. No dejes que digan nada. De lo contrario, podrías caer gradualmente en sus métodos de engaño y engaño.

5. Explotación de la tecnología Deepfake para la extorsión sexual

La IA avanzó con herramientas de deepfake a un ritmo alarmantemente rápido. Las nuevas tecnologías reducen imperfecciones menores en videos deepfake, como parpadeos poco naturales, tonos de piel desiguales, audio distorsionado y elementos inconsistentes.

Desafortunadamente, estos errores también sirven como señales de alerta. Permitir que los usuarios los eliminen hace que sea más difícil diferenciar entre videos legítimos y deepfake.

Bloomberg muestra cómo cualquier persona con conocimientos básicos de tecnología puede manipular su voz y sus imágenes para replicar a otros.

Además de crear perfiles de citas realistas, los estafadores aprovechan las herramientas deepfake para la extorsión sexual. Combinan fotografías y vídeos públicos con pornografía. Después de manipular contenido ilícito, chantajearán a las víctimas y exigirán dinero, datos personales o favores sexuales.

No cedas si te atacan. Llame al 1-800-CALL-FBI, envíe un aviso al FBI o visite la oficina local del FBI si se encuentra en esta situación.

6. Integración de modelos de IA con sistemas de piratería de fuerza bruta

Si bien los modelos de lenguaje de código abierto respaldan algunos avances de la IA, también son propensos a la explotación. Los delincuentes se aprovecharán de cualquier cosa. No se puede esperar que ignoren el algoritmo detrás de modelos de lenguaje altamente sofisticados como LLaMA y OpenAssistant.

En las estafas románticas, los piratas informáticos suelen integrar modelos de lenguaje con el descifrado de contraseñas. Las capacidades de aprendizaje automático y PNL de la IA permiten que los sistemas de piratería de fuerza bruta produzcan combinaciones de contraseñas de forma rápida y eficiente. Incluso podrían hacer predicciones informadas si se les proporcionara suficiente contexto.

No tienes control sobre lo que hacen los estafadores. Para proteger sus cuentas, asegúrese de crear una contraseña verdaderamente segura que incluya caracteres especiales, combinaciones alfanuméricas y más de 14 caracteres.

7. Imitación de personas reales con clonación de voz

Los generadores de voz con IA comenzaron como un juguete genial. Los usuarios convertirían pistas de muestra de sus artistas favoritos en versiones o incluso canciones nuevas. Tomemos como ejemplo Corazón en mi manga. El usuario de TikTok Ghostwriter977 hizo una canción súper realista imitando a Drake y The Weeknd, aunque ninguno de los artistas la cantó.

A pesar de los chistes y memes que la rodean, la síntesis de voz es muy peligrosa. Permite a los delincuentes ejecutar ataques sofisticados. Por ejemplo, los estafadores románticos aprovechan las herramientas de clonación de voz para llamar a sus objetivos y dejar grabaciones engañosas. Las víctimas que no estén familiarizadas con la síntesis de voz no notarán nada inusual.

Protéjase de las estafas de clones de voz de IA estudiando cómo suenan las salidas sintetizadas. Explora estos generadores. Simplemente crean clones casi idénticos; aún notarás algunas imperfecciones e inconsistencias.

Protéjase contra los estafadores de citas con IA

A medida que avancen las herramientas de inteligencia artificial generativa, los estafadores románticos desarrollarán nuevas formas de explotarlas. Los desarrolladores no pueden detener a estos delincuentes. Adopte un papel proactivo en la lucha contra los delitos cibernéticos en lugar de simplemente confiar en que las restricciones de seguridad funcionan. Aún puedes usar aplicaciones de citas. Pero asegúrese de conocer a la persona al otro lado de la pantalla antes de interactuar con ella.

Scroll al inicio