Seguridad
Inteligencia artificial
IBM

IBM recomienda tratar la IA generativa como una plataforma en llamas y asegurarla ya

Según el gigante azul, muchas empresas dan prioridad a la innovación sin abordar adecuadamente los riesgos de seguridad que plantea la IA generativa.

Inteligencia Artificial Generativa

IBM advierte de que muchas organizaciones están sacrificando la seguridad en favor de la innovación en la carrera por desplegar IA generativa.

Entre los 200 ejecutivos encuestados por IBM, el 94% afirmó que es importante proteger las aplicaciones y servicios de IA generativa antes de su despliegue. Sin embargo, sólo el 24% de los proyectos de IA generativa de los encuestados incluirán un componente de ciberseguridad en los próximos seis meses.

Además, el 69% afirma que la innovación tiene prioridad sobre la seguridad en la IA generativa, según el informe del IBM Institute for Business Value, The CEO's guide to generative AI: Cybersecurity.

Los líderes empresariales parecen estar dando prioridad al desarrollo de nuevas capacidades sin abordar los nuevos riesgos de seguridad, a pesar de que el 96% afirma que la adopción de la IA generativa hace probable una violación de la seguridad en su organización en los próximos tres años, según IBM.

"A medida que la IA generativa prolifere en os próximos seis a doce meses, los expertos esperan que los nuevos ataques de intrusión exploten la escala, la velocidad, la sofisticación y la precisión, con nuevas amenazas constantes en el horizonte", declaró IBM.

Para los equipos de redes y seguridad, los retos podrían incluir tener que luchar contra los grandes volúmenes de spam y correos electrónicos de phishing que la IA generativa puede crear; vigilar los ataques de denegación de servicio por esos grandes volúmenes de tráfico; y tener que buscar nuevo malware que sea más difícil de detectar y eliminar que el malware tradicional.

"Al considerar tanto la probabilidad como el impacto potencial, los ataques autónomos lanzados en volumen masivo destacan como el mayor riesgo. Sin embargo, los ejecutivos esperan que los hackers que fingen o se hacen pasar por usuarios de confianza tengan el mayor impacto en la empresa, seguidos de cerca por la creación de código malicioso", declararon desde IBM.

Según esta compañía, existe una desconexión entre la comprensión que tienen las organizaciones de las necesidades de ciberseguridad de la IA generativa y su aplicación de medidas de ciberseguridad. "Para evitar consecuencias costosas e innecesarias, los directores generales deben abordar los problemas de ciberseguridad y procedencia de los datos invirtiendo en medidas de protección de datos, como el cifrado y la anonimización, así como en sistemas de seguimiento y procedencia de datos que puedan proteger mejor la integridad de los datos utilizados en los modelos de IA generativa", afirma desde el gigante azul.

Para ello, las organizaciones prevén un crecimiento significativo del gasto en seguridad relacionada con la IA. Para 2025, se espera que los presupuestos de seguridad de la IA sean un 116% mayores que en 2021, según IBM. Aproximadamente el 84% de los encuestados afirmaron que darán prioridad a las soluciones de seguridad GenAI frente a las convencionales.

En cuanto a las habilidades, el 92% de los ejecutivos encuestados dijeron que es más probable que su fuerza de trabajo de seguridad aumente o se eleve para centrarse en el trabajo de mayor valor en lugar de ser reemplazada.

Los responsables de ciberseguridad deben actuar con urgencia para responder a los riesgos inmediatos de la IA generativa, advirtieron desde IBM. He aquí algunas de sus recomendaciones para los ejecutivos de las empresas:

· Convocar a los responsables de ciberseguridad, tecnología, datos y operaciones para debatir a nivel directivo los riesgos en evolución, incluida la forma en que la IA generativa puede ser explotada para exponer datos sensibles y permitir el acceso no autorizado a los sistemas. Ponga a todos al día sobre la IA "adversativa" emergente: cambios casi imperceptibles introducidos en un conjunto de datos básicos que provocan resultados maliciosos.

· Céntrese en proteger y cifrar los datos utilizados para entrenar y ajustar los modelos de IA. Escanee continuamente en busca de vulnerabilidades, malware y corrupción durante el desarrollo del modelo, y controle los ataques específicos a la IA una vez desplegado el modelo.

· Invertir en nuevas defensas diseñadas específicamente para proteger la IA. Aunque los controles de seguridad y la experiencia existentes pueden ampliarse para proteger la infraestructura y los datos que soportan los sistemas de IA, detectar y detener los ataques de adversarios contra los modelos de IA requiere nuevos métodos.

 

La seguridad, preocupación clave

La seguridad también es una preocupación clave para las empresas que están considerando soluciones de gestión de red basadas en IA/ML, según un estudio reciente de Enterprise Management Associates (EMA).

EMA encuestó a 250 profesionales de TI sobre su experiencia con las soluciones de gestión de redes impulsadas por IA/ML y descubrió que casi el 39% tiene problemas con el riesgo de seguridad asociado a compartir datos de red con sistemas de IA/ML.

"Muchos proveedores ofrecen soluciones de red impulsadas por IA como ofertas basadas en la nube. Los equipos de TI deben enviar sus datos de red a la nube para su análisis. Algunos sectores, como los servicios financieros, son reacios a enviar datos de red a la nube. Prefieren mantenerlos en casa con una herramienta local. Por desgracia, muchos proveedores de redes no admiten una versión local de su lago de datos de IA porque necesitan escalabilidad en la nube para que funcione", afirma EMA en su informe AI-Driven Networks: Leveling up Network Management.



Revista Digital

Revistas Digitales

DealerWorld Digital

 



Otros Contenidos

Registro:

Eventos: