BadGPT y FraudGPT: la cara oculta de la IA para hackers
Crean dos versiones falsas de ChatGPT para engañar con correos y páginas web falsas
La creciente influencia de la inteligencia artificial (IA) ha transformado no solo la manera en que interactuamos con la tecnología, sino también la forma en que los ciberdelincuentes operan en el mundo digital. Un reciente informe revela cómo la IA se está convirtiendo en una herramienta cada vez más utilizada por los criminales cibernéticos para crear correos electrónicos falsos y páginas web falsas. de manera más sofisticada y engañosa.
Gracias a los avances en IA generativa, los delincuentes pueden sortear obstáculos que antes dificultaban sus intentos de estafa, como problemas de traducción de idiomas y redacción poco convincente. Esta tecnología permite la creación de mensajes y códigos maliciosos de manera automatizada y altamente personalizada.
Plataformas como BadGPT y FraudGPT son solo dos ejemplos de las herramientas que están siendo utilizadas para diseñar ataques de phishing más complejos, ahora denominados Spear-phishing. Estas aplicaciones, basadas en modelos como ChatGPT y Gemini, están siendo adaptadas por los ciberdelincuentes para generar contenido que imita a sitios web legítimos, escribe malware y personaliza mensajes para hacerse pasar por figuras de confianza, como ejecutivos de empresas.
Los ciberdelincuentes ha superado a las defensas tradicionales
Los expertos en ciberseguridad advierten sobre el creciente riesgo que representan estos correos electrónicos generados por IA. Vish Narendra, CIO de Graphic Packaging International, señala que estos correos suelen estar diseñados para parecer más legítimos, lo que aumenta su efectividad en la suplantación de identidad y el engaño.
Brian Miller, CISO de Healthfirst, destaca que la comunidad de ciberdelincuentes ha superado a las defensas tradicionales, como lo demuestra el aumento en los ataques que se hacen pasar por proveedores de facturas. Este tipo de ataques son difíciles de detectar y pueden resultar costosos para las organizaciones afectadas.
La complejidad de estos ataques se ve exacerbada por la dificultad para detectar los correos electrónicos generados por IA. Avivah Litan, analista de Gartner, advierte que estos correos están diseñados para evadir la detección, lo que representa un desafío significativo para las empresas que confían en soluciones de ciberseguridad tradicionales.
Ante esta creciente amenaza, las empresas de seguridad cibernética están intensificando sus esfuerzos para combatir los correos electrónicos de fraude generados por IA. Abnormal Security, un proveedor de seguridad de correo electrónico, ha utilizado la IA para identificar miles de correos maliciosos y ha experimentado un aumento en los ataques personalizados.
Sin embargo, detener estos ataques es un desafío constante. Aunque las compañías como OpenAI están trabajando para fortalecer sus sistemas contra este tipo de abuso, los chatbots maliciosos están fácilmente disponibles en internet, lo que facilita su acceso a los delincuentes.
En este contexto, es fundamental que las empresas capaciten a sus empleados para reconocer los signos de un correo electrónico sospechoso y fomenten una cultura de seguridad cibernética. Del mismo modo, los usuarios domésticos deben ser cautelosos y desconfiar de cualquier correo electrónico inusual, especialmente si solicita descargar archivos o hacer clic en enlaces.
En última instancia, en un panorama digital cada vez más complejo y peligroso, la vigilancia y la educación son las mejores defensas contra los ataques generados por IA.
Comentarios
Nos interesa tu opinión