Las empresas españolas están desprotegidas ante el desafío de ciberseguridad que supone la IA

  • Seguridad

PC encendido en la mesa

El 69% de las compañías no cuenta con un enfoque reactivo hacia las amenazas derivadas de la IA. El uso cada vez más sofisticado de la IA en ataques de ingeniería social, la generación de contenido falso mediante IA y los ataques de envenenamiento de datos representan un riesgo importante.

La utilización de herramientas de inteligencia artificial (IA) en las empresas permite optimizar procesos y agilizar tareas, facilita el análisis de datos avanzado, fomenta la personalización de experiencias para clientes y la predicción y pronóstico, y mejora de la toma de decisiones. Por todo esto, su uso juega un papel cada vez más importante en las organizaciones. No obstante, la IA lleva asociados riesgos digitales que deben ser identificados por los profesionales de la gestión de riesgos. De no hacerlo, esto tendría graves implicaciones económicas que van más allá de los costes, afectando la rentabilidad, la competitividad y la viabilidad a largo plazo de las empresas.

Un tercio de las empresas españolas parece no ser conscientes de ello, ya que según el informe ‘El estado actual de la ciberseguridad en España 2024’, elaborado por Deloitte, el 69% de las compañías no cuenta con un enfoque reactivo hacia las amenazas derivadas de la IA, sin contar con una estrategia clara de integración.

Tendencias de amenazas impulsadas por la IA

Una de las principales tendencias es el uso cada vez más sofisticado de la IA en ataques de ingeniería social, lo que hace que el phishing sea más personalizado y difícil de detectar. “Además, la generación de contenido falso mediante IA está socavando la confianza en la información en línea y facilitando la propagación de desinformación”, explica Sergi Simón, coordinador del Área de Riesgos de EALDE Business School.

Otra amenaza son los ataques de envenenamiento de datos, una táctica empleada por los ciberdelincuentes para manipular los datos utilizados por sistemas de inteligencia artificial o aprendizaje automático. Sergi Simón sostiene que “los ataques de envenenamiento de datos también representan un riesgo importante, ya que pueden comprometer la integridad y la efectividad de los modelos de IA, especialmente en áreas donde se toman decisiones automatizadas”.

El riesgo más apremiante es la generación automática de malware porque permite aprovechar las vulnerabilidades de un sistema para poder controlarlo y bloquearlo para pedir un rescate. Al respecto, Sergi Simón apunta que “la combinación de la creciente sofisticación de los ataques basados en IA y la dependencia cada vez mayor de la IA en una variedad de sectores es un desafío crítico para la seguridad cibernética en la actualidad. Protegerse contra estos ataques y mitigar sus riesgos asociados son prioridades clave para cualquier organización que busque mantenerse segura en un entorno digital cada vez más complejo y dinámico”.

Los mayores desafíos que enfrentan las organizaciones en la actualidad en términos de protección contra estos riesgos emergentes incluyen la necesidad de adaptarse rápidamente a la evolución de las tácticas de ataque basadas en inteligencia artificial, fortalecer la detección de amenazas sofisticadas y asegurar la integridad de los datos utilizados en sistemas de IA.