Lo primero que hemos de decir es que ChatGPT no es una herramienta diseñada para fin delictivo alguno, aunque como ocurre con todos los avances tecnológicos, haya quien ya ha encontrado la manera de delinquir a través suyo.
De hecho, los llamados cibercriminales usan desde su mismo lanzamiento esta IA para sus actividades ilegales, por ejemplo crear correos electrónicos o mensajes fraudulentos con el objetivo de aprovecharse de los desprevenidos.
Es importante recordar que ChatGPT es una herramienta que se basa en el comportamiento, y que su creadora, OpenAI, ya ha presentado actualizaciones muy relevantes para mejorar su capacidad de razonamiento y reducir en lo posible la probabilidad de recibir respuestas a solicitudes “inapropiadas”.
Es cierto, también, que el uso de ChatGPT para crear ataques maliciosos ha sido una gran causa de preocupación dentro del contexto del mercado de ciberseguridad, aunque también lo es que hay ya herramientas actualizadas (p.ej., iSource XDR, desarrollada por Hillstone Networks) que ofrecen servicios eficaces de protección de la infraestructura y datos de las empresas a través de lo que denominan “inteligencia de amenazas”, lo que básicamente implica que han desarrollado la capacidad de detectar amenazas basadas en comportamiento, permitiendo identificar si un archivo, o un software, se dedica a llevar a cabo tareas para las que no fue diseñado.