Ciberseguridad

Inteligencia artificial: las dos caras de la moneda

0

Según A3Sec, esta tecnología podría ser usada para obtener algún beneficio de manera no ética o legal.

Estamos ante un boom del uso de la Inteligencia Artificial (AI), vimos una fiebre con la creación de nuestras imágenes a partir de una serie de fotografías personales, el impacto fue tal que artistas y hasta políticos crearon sus imágenes con AI.

Lo más reciente es el uso de Chat GPT, el cual es un sistema de chat basado en el modelo de lenguaje por Inteligencia Artificial GPT-3, desarrollado por la empresa OpenAI. Cuenta con más de 175 millones de parámetros, y está entrenado con grandes cantidades de texto para realizar tareas relacionadas con el lenguaje, desde la traducción hasta la generación de texto.

Especialistas de A3Sec, empresa con presencia global dedicada a la seguridad digital, comentan que estas soluciones de AI, pueden ser utilizadas en conjunto o en sustitución de los servicios de búsqueda cómo Google o Bing, cuentan con la capacidad para entender las preguntas mediante análisis avanzado de procesamiento de lenguaje y entregando una respuesta basada en un análisis de muchas fuentes de información.

Ahora, analizando el riesgo de ciberseguridad, todo servicio puede ser un punto de entrada a las organizaciones, el riesgo de terceros se ha elevado notablemente en los últimos años, en los que cibercriminales utilizan a terceros para llegar a sus objetivos.

Estas herramientas están recolectando grandes cantidades de información a una gran velocidad y los aspectos de seguridad tienen que considerarse desde la información que les damos lo que compartimos y que toda esta información podría ser utilizada en nuestra contra.

Las aplicaciones de la AI son bastantes, desde la creación de imágenes, todo un texto, incluso hasta videos, pero ¿hasta dónde el uso de estos sistemas puede ser seguro para los usuarios, incluso para las empresas, en dónde queda la información que les proporcionamos, así como pueden crear textos de utilidad, pueden crear algo que resulte nocivo para una persona, empresa o institución?

¿De qué manera los ciberdelincuentes pueden hacer mal uso de Chat GPT?
Los ciberdelincuentes pueden hacer mal uso de Chat GPT de varias maneras, algunas de las cuales incluyen:

Generación de contenido malicioso
Chat GPT es capaz de generar texto de manera autónoma, lo que significa que los ciberdelincuentes pueden usarlo para generar contenido malicioso, como correos electrónicos de phishing o mensajes engañosos en redes sociales, que se parezcan mucho a los mensajes escritos por humanos. Estos mensajes pueden ser utilizados para engañar a las personas y robar información personal o financiera.

Ataques de ingeniería social
Los ciberdelincuentes también pueden usar Chat GPT para llevar a cabo ataques de ingeniería social. Pueden utilizar el modelo para crear perfiles falsos de redes sociales y hacer que parezcan muy realistas. Luego pueden utilizar estos perfiles para engañar a las personas para que compartan información personal o para persuadirlos a hacer clic en enlaces maliciosos.

Creación de bots maliciosos
Chat GPT también puede ser utilizado para crear bots de chat maliciosos que pueden engañar a las personas para que compartan información personal o financiera. Estos bots pueden utilizarse para difundir spam o para llevar a cabo ataques de phishing.

Para prevenir estos tipos de amenazas, es importante emplear software de seguridad actualizado, evitar hacer clic en enlaces sospechosos o descargar archivos adjuntos de fuentes desconocidas, y estar atento a los mensajes que parecen sospechosos o poco realistas.

Los especialistas de A3Sec mencionan que el uso de AI es una gran oportunidad para mejorar nuestros resultados, pero también podría ser usada para obtener algún beneficio de manera no ética o legal. Su uso inadecuado podría traer riesgos sensibles para la organización.

Siempre existirá la oportunidad de la eficiencia en la implementación de nuevas tecnologías, los ataques ocurren cuando se utiliza con otros fines, otros medios o se aprovecha de su diseño para hacer cosas mal intencionadas o ilegales, por lo tanto, siempre puede existir la oportunidad a un ataque y siempre puede ser utilizado como una herramienta más en la vida de las personas y organizaciones.

Ante esto, las recomendaciones de la compañía especialista en ciberseguridad al utilizar herramientas basadas en AI son:

● La mayoría de las soluciones de AI, están en periodo de prueba. Tanto los desarrolladores cómo el público están interactuando y estamos entendiendo sus riesgos, por el momento la idea es emplearlo para sacarle el máximo provecho y para entender qué beneficios nos puede ofrecer esta tecnología.

● Por supuesto que muchos lo usarán para sacar partido, la ética en el uso de la tecnología debe tener prioridad. Algunas recomendaciones: no compartir datos reservados o confidenciales, ej. piezas de software.

● En este momento muchas plataformas de este estilo son con fines lúdicos o educativos, y debemos tomar en cuenta eso para subir, compartir o manejar información con estas plataformas, ya que existen temas de privacidad, derechos de autor y manejo de las mismas que todavía no está definido.

Dos caras de la misma moneda, el uso de las plataformas basadas en la Inteligencia Artificial seguirá en desarrollo, como muchas de las cosas que nacen en Internet, no están del todo reguladas y lo más seguro es que dicha regulación tarde en concebirse e implementarse, por lo que el saber qué está permitido o prohibido recaerá en los desarrolladores y en los usuarios, por el momento la ciberseguridad personal y empresarial se enfrentarán a un nuevo reto, ¿tú y tu empresa lo tienen contemplado?

DiDi integra Taxis a su app en Barranquilla

Previous article

Las 26 candidatas que sueñan con ser la Mujer Cafam 2023

Next article

Comments

Comments are closed.

Login/Sign up