Desde su irrupción masiva en 2022, la inteligencia artificial (IA) generativa se convirtió en una de las tecnologías más adoptadas y transformadoras del ecosistema empresarial. Organizaciones de todos los sectores la integraron para automatizar procesos, mejorar la atención al cliente y acelerar la toma de decisiones. Sin embargo, su crecimiento acelerado también trajo una creciente preocupación por su impacto en la ciberseguridad.
Inteligencia artificial generativa
Impacto en la ciberseguridad
A diferencia de otras formas de IA, la generativa no se limita a analizar o predecir. Su función es crear, desde textos, imágenes, códigos, hasta audios y videos. Esa capacidad de producción la vuelve especialmente atractiva, pero su uso inadecuado puede amplificar riesgos ya existentes, tales como ciberataques, la privacidad de los datos, la propiedad intelectual (PI) y la difusión de desinformación.
Se registraron fraudes financieros millonarios mediante el uso de deepfakes hiperrealistas, filtraciones de datos causadas por el uso imprudente de prompts, y casos de contenido generado que infringe derechos de propiedad intelectual o propaga información errónea.
El problema no es solo técnico. La rapidez con la que las organizaciones han adoptado estas herramientas no siempre va acompañada de una evaluación rigurosa de sus implicancias legales, regulatorias y de cobertura de seguros. En muchos casos, los modelos de IA generativa se entrenan con grandes volúmenes de información sin validación de origen ni consentimiento claro, lo que genera dudas legítimas en materia de privacidad, competencia desleal y protección de datos.
Christian Rada
“Uno de los riesgos emergentes más relevantes en materia de seguros es la posibilidad de que la inteligencia artificial generativa quede implícitamente excluida de ciertas coberturas, en lo que algunos especialistas ya denominan IA silenciosa. Así como en su momento el ciber silencioso dejó a muchas organizaciones sin protección frente a incidentes tecnológicos por ambigüedades contractuales, hoy existe una preocupación creciente respecto de si los eventos vinculados al uso de IA generativa están realmente contemplados en las pólizas vigentes”, sostuvo Christian Rada, líder de Finpro y Cyber para Argentina y Uruguay de Marsh.
En este contexto, las organizaciones deben entender qué tipo de inteligencia artificial se está utilizando, con qué propósito y bajo qué condiciones. Para mitigar los riesgos vinculados al uso de inteligencia artificial generativa, las organizaciones deben adoptar un enfoque integral que contemple tanto la dimensión tecnológica como los procesos internos y el factor humano. Solo abordando estos tres frentes de manera coordinada es posible avanzar hacia una adopción segura, ética y sostenible de esta tecnología.
Acciones clave
Según Marsh, corredor de seguros y asesor de riesgos líder en el mundo, hay tres acciones clave que las organizaciones pueden implementar hoy para mitigar los riesgos asociados a la IA generativa. “La primera es comprender las diferencias entre esta tecnología y otras formas de inteligencia artificial, para ajustar las estrategias de uso y control. La segunda es desarrollar marcos de gobernanza sólidos y transversales que involucren a todas las áreas relevantes. Y la tercera, evaluar de forma continua el impacto de los cambios tecnológicos, regulatorios y de seguros, en un entorno que evoluciona rápidamente”, comentó Rada.
La pregunta ya no es si la IA generativa puede generar amenazas, sino cómo prepararse para gestionarlas. Las organizaciones que logren equilibrar innovación con control, y adopción con responsabilidad, estarán mejor posicionadas para capitalizar los beneficios de esta tecnología sin quedar expuestas a sus efectos colaterales.
Seguinos en las redes:
Facebook: https://bit.ly/TodoRiesgoFacebook
Instagram: https://bit.ly/3OOsqMo
LinkedIn: https://bit.ly/TodoRiesgoLinkedIn
X: https://bit.ly/TodoRiesgoTwitter
YouTube: https://bit.ly/TodoRiesgoYouTube








