ChatGPT es un chatbot o sistema de chat desarrollado por OpenAI. Se trata de un modelo basado en Inteligencia Artificial (GPT-3) que permite a las personas interactuar con este chatbot como si fuera una persona real a través de texto.
Fue entrenado con grandes cantidades de texto para responder preguntas o proporcionar información. Y si bien presenta errores, a través del proceso de entrenamiento, va mejorando su capacidad para interactuar de forma automática ante las consultas de las personas.
Sin embargo, la compañía de seguridad ESET advierte que también presenta ciertos riesgos en términos de ciberseguridad.
“Tecnologías como ChatGPT vinieron a revolucionar y automatizar diversos procesos. Lo más destacable de estas tecnologías probablemente sea que están cambiando la forma en que interactuamos con las computadoras. Con ChatGPT se ve el avance de la democratización y accesibilidad del conocimiento, ¿pero acaso esto no está posibilitando también la democratización del cibercrimen? Investigaciones ya han demostrado que los cibercriminales ya comenzaron a utilizar ChatGPT para utilizarlo como herramienta para desarrollar código malicioso y realizar otro tipo de acciones fraudulentas. Es evidente que debemos seguir este tema de cerca para ver cómo evoluciona y analizar lo que nos depara la evolución de la Inteligencia Artificial y sobre todo el Machine Learning”, comenta Sol González, investigadora de Seguridad Informática de ESET Latinoamérica.
ESET analiza 6 maneras en qué los cibercriminales pueden beneficiarse con ChatGPT:
1- Generación de fake news: En caso de que se quiera generar una noticia falsa que se distribuya a lo largo de internet. ¿Qué se podría hacer? Apelando a la creatividad e ingresando los parámetros correspondientes en torno a lo que se quiere, esto es posible con esta plataforma.
Por ejemplo, desde ESET se le pidió a ChatGPT que redacte un artículo en donde Elon Musk sorpresivamente compra la empresa Meta.
“La herramienta claramente puede ser utilizada por actores maliciosos para generar correos electrónicos persuasivos de manera automatizada con la intención de engañar a las personas y que entreguen sus credenciales. Es un hecho que a través de ChatGPT se pueden crear correos electrónicos de phishing personalizados y muy convincentes para engañar a las víctimas y obtener información confidencial de una manera automatizada”, confirma González de ESET.
Redacción de un tweet en nombre de otra persona con ChatGPT
Solicitud para escribir un código para realizar una acción maliciosa con ChatGPT
Como respuesta, el ChatGPT advierte los riesgos de la solicitud y señala que incluso se podría estar violando la política de contenido del servicio. Sin embargo, el código se generó de todas formas, hasta incluso proporciona una descripción detallada sobre cómo funciona.
La plataforma proporcionó un código en Python para enumerar los usuarios de un Active Directory utilizando el protocolo LDAP. Para quienes trabajan en seguridad saben que es recomendable contar con un Cheat Sheet ágil para ejecutar ciertos comandos. Si, por ejemplo, se está en la fase de acceso, como cibercriminal, se necesita un script para abrir una Shell reversa y utilizando ChatGPT se podría fácilmente obtener esta información:
¿Ya conoces nuestro canal de YouTube? ¡Suscríbete!
Iche: El renacimiento gastronómico de Manabí
IX Congreso de la Red de Ciencias Políticas y RRII Estado vs Crimen transnacional: sociedad, poder y economía
Conexión vital: Productores y consumidores contra la desnutrición
Las Decisiones Eléctricas deben ser TÉCNICAS y no POLÍTICAS
¡La naturaleza bajo amenaza!: Especies silvestres disminuyen a pasos acelerados