Contenido creado por Gerardo Carrasco
Seguridad

Tenía que pasar

FraudGPT, el hermano malandra de ChatGPT

Los ciberdelincuentes se suben a la inteligencia artificial y crean sus propias herramientas.

26.07.2023 13:46

Lectura: 2'

2023-07-26T13:46:00-03:00
Compartir en

Los primeros rumores acerca de una inteligencia artificial (IA) generativa peligrosa surgieron hace varios años, y lo hicieron nada menos que desde OpenAI, la compañía que ahora ofrece a todo el mundo la herramienta ChatGPT.

Ya desde entonces, la firma advirtió que estos modelos podrían usarse con fines nefastos y resultó que OpenAI tenía razón.

Si bien esa compañía y otras empresas tecnológicas principales se comprometen a incluir “vallas” para restringir los peores impulsos de la IA, los ciberdelincuentes están potenciando sus fechorías en los modelos GPT, según informa la publicación especializada ExtremeTech.

Primero surgió la plataforma WormGPT, y ahora ha surgido FraudGPT. Ambas tienen en común su intención de automatizar la piratería y el robo de datos.

El impulsor de FraudGPT comenzó a promocionar el producto en foros de piratería en los últimos días, según informa PCMag. El individuo no identificado afirma que el servicio cambiará para siempre la forma en que los estafadores online operan. Al igual que las aplicaciones de IA no maliciosas, el hacker simplemente necesita decirle a FraudGPT lo que necesita. Tal vez sea un determinado texto que convenza a los clientes de un determinado banco para que hagan clic en un SMS de spam malicioso.

Si bien Google y otros pesos pesados de la IA han trabajado para garantizar que sus modelos no puedan crear código malicioso, sí pueden hacerlo con FraudGPT. Aunque las publicaciones del foro no proporcionan ejemplos de código escrito por la herramienta, no es una afirmación descabellada, dado lo que se ha visto en las plataformas legítimas de IA generativa. El operador del chatbot, supuestamente, también trafica con información robada, que puede incorporarse al modelo. Según el creador, el bot puede escanear sitios web para encontrar los más vulnerables a la infiltración.

El conjunto de funciones de FraudGPT puede incluso mejorar con el tiempo: es un servicio de suscripción, no algo que la gente descargue para ejecutar por su cuenta. El creador debe tener un almacén lleno de GPU en algún lugar para operar el servicio. Cualquiera que quiera aprovechar el bot generador de malware tendrá que pagar 200 dólares, mucho más que WormGPT, que pide solo 60. El desarrollador de FraudGPT afirma haber hecho más de 3.000 ventas.