El uso de la inteligencia artificial es el reto de la ciberseguridad en 2024

Desde sus inicios, la inteligencia artificial ha sido tema de debate para diferentes sectores de la población dentro de diferentes contextos, al igual que ha causado controversias sobre su uso y la evasión del derecho de autor en diversas prácticas. Esta misma tecnología se convertirá en la principal amenaza a la ciberseguridad el próximo año, de acuerdo a lo que pronostican investigaciones de compañías expertas en este campo alrededor del mundo.

De hecho, según el 'Reporte de Predicciones de amenazas para 2024' de FortiGuard Labs, el área de investigación e inteligencia de amenazas de la compañía Fortinet, actualmente la inteligencia artificial generativa brinda más herramientas a aquellas personas que operan desde el cibercrimen.

El informe prevé que con la ayuda de este tipo de tecnología, en 2024 se lanzarán ataques mucho más enfocados y sigilosos, diseñados para evadir los controles más robustos de la seguridad, convirtiéndola en la principal amenaza a la seguridad digital.

BeyondTrust, otra empresa de ciberseguridad, explica en 'Top Cybersecurity Trend Predictions for 2024: Beyond rust Edition', explica que el proceso en el que la inteligencia artificial se volverá más peligrosa podría involucrar a los seres humanos, pues a medida de que se desarrolle más este tipo de tecnología expertos como programadores y otros que dependan de la inteligencia artificial seguirán introduciendo amenazas en el sistema aunque sea de forma involuntaria.

Panamá y el resto de América Latina no son inmunes a este fenómeno y también podrían experimentar los peligros que conlleva la inteligencia artificial. Según Ángel Agrazal, fundador de Latam Training Corp, empresa dedicada a evitar el fraude digital, la suplantación de identidad y el fraude financiero digital serán dos de los retos que tendrá la región el próximo año.

 “En la era digital, la suplantación de identidad se intensifica y aumenta en la región debido a métodos avanzados como el morphing o transformación facial mediante inteligencia artificial. Este proceso sintético de edición de imágenes puede generar identidades falsas, aumentando el riesgo de esquemas de 'hombres de paja' que actúan como mulas digitales para el lavado de dinero, cada vez son más las aplicaciones de inteligencia artificial para crear transformación facial e inclusive suplantar la voz, los llamados deepfakes que son otra técnica de inteligencia artificial que permite editar vídeos falsos de personas que aparentemente son reales”, mencionó el experto a 'La Decana'.

Agrazal también habló sobre la existencia de grupos criminales que recurren al lavado de dinero mediante la falsificación de identidades, recurriendo a los 'hombres de paja' con la ayuda de la inteligencia artificial. Usualmente, estos individuos abren cuentas bancarias, adquieren identificaciones digitales y códigos de seguridad, proporcionando sus credenciales al grupo criminal a cambio de dinero. Este método de cibercrímen se emplea tanto en transacciones digitales como en presenciales, pero presenta desafíos adicionales en las operaciones no presenciales.

Otras de las amenazas que Latinoamérica podría estar enfrentando en cuestión de ciberseguridad serían la extorsión sexual en plataformas digitales y demás prácticas relacionadas a la ingeniería social avanzada que utilizan técnicas de deepfake o transformación facial y las convierte en amenazas peligrosas.

Según el medio colombiano, El País, este tipo de violencia digital le sucede a al menos el 60% de las mujeres en espacios digitales, y 59.6% de las compañías de ciberseguridad todavía no saben cómo combatir esta problemática.

“La ingeniería social implica manipular psicológicamente a las personas para que realicen acciones que beneficien al atacante. Estos ataques no se centran en vulnerabilidades tecnológicas, sino en explotar aspectos humanos como la confianza, el miedo o la curiosidad. Para esto se utilizan tácticas que buscan engañar a las personas mediante el uso de técnicas psicológicas más sofisticadas, comprometiendo así la seguridad a través de la interacción humana”, destacó Agrazal.

Más ejemplos de extorsión sexual e ingeniería social avanzada podrían ser amenazas de compartir videos, fotos u otro tipo de material comprometedor a la lista personal de contactos si no se paga una suma de dinero, o el ciberacoso que involucra la humillación, insultos y otras formas de violencia psicológica en entornos digitales. Actualmente 55% de jóvenes han sido víctimas, según cifras de la Organización de las Naciones Unidas (ONU).

De acuerdo con Agrazal, la mejor manera de protegerse de este tipo de amenazas digitales es la educación y concientización sobre la existencia y los peligros que involucran los deepfakes y el uso de la inteligencia artificial para la transformación facial, la extorsión sexual y otros tipos de ingeniería social avanzada.

Además, los individuos deben ser más cautelosos al compartir información personal e interactuar con el contenido multimedia en plataformas como redes sociales, páginas web y otro tipo de sitios en línea.

Reforzar la seguridad de las identidades digitales mediante la autenticación multifactorial también es un paso fundamental que deben tomar las personas para asegurar sus datos en cualquier tipo de dispositivo.

Esto dificulta que los actores malintencionados obtengan acceso a cuentas mediante el uso de identidades falsas en pocas palabras la utilización de biometría, huellas dactilares o reconocimiento facial más allá de contraseñas seguras para acceder a cuentas en líneas de redes sociales, billeteras electrónicas o banca en línea.