La seguridad de la inteligencia artificial

Copiar URL

La seguridad de la inteligencia artificial protege las aplicaciones de los ataques maliciosos que tienen como objetivo debilitar las cargas de trabajo, manipular datos o robar información confidencial. Adapta los principios de confidencialidad, integridad y disponibilidad al ciclo de vida de la inteligencia artificial y a los ecosistemas técnicos. 

Más información sobre Red Hat AI

Las cargas de trabajo de inteligencia artificial incorporan áreas nuevas que la seguridad de TI tradicional no contempla. Por este motivo, la seguridad de la inteligencia artificial se centra en proteger las cargas de trabajo contra el uso indebido y la manipulación. Esto es diferente a utilizar la inteligencia artificial para la ciberseguridad (protegerse del uso delictivo o no autorizado de los datos electrónicos) o la protección ante la inteligencia artificial (evitar consecuencias peligrosas que surgen del uso de la inteligencia artificial). 

La seguridad de la inteligencia artificial implica identificar los puntos vulnerables y posibilitar la integridad de los sistemas de inteligencia artificial para que puedan ejecutarse según lo previsto y sin interrupciones. Para ello, se protegen los datos de entrenamiento no manipulados, la procedencia del modelo y el aislamiento de la unidad de procesamiento gráfico (GPU) en la plataforma. (La mayoría de las GPU no se diseñan teniendo en cuenta la seguridad o el aislamiento, por lo que pueden ser un objetivo fácil para los atacantes).

La mayoría de las estrategias de seguridad deben actualizarse para cubrir la nueva superficie de ataque que presentan las cargas de trabajo de inteligencia artificial. En este entorno en constante evolución, un enfoque flexible permite proteger las cargas de trabajo de inteligencia artificial y los sistemas en los que se ejecutan a medida que se desarrollan nuevas estrategias.

Para proteger tus sistemas de inteligencia artificial, es fundamental comprenderlos en su totalidad. Cuanto más conocimiento tengas sobre la tecnología de inteligencia artificial, mejor podrás protegerla. 
 

¿Qué es la infraestructura de inteligencia artificial?
 

Imagínate que una configuración de TI típica es como una casa: tiene algunos puntos vulnerables, como las puertas y las ventanas, pero todos se pueden cerrar con llave. Una solución de inteligencia artificial se parece más a un edificio de departamentos en otro planeta, con puntos de entrada que abarcan muchísimos pisos y galaxias. Tiene varios puntos de ataque que quizás no hayas tenido en cuenta antes.

Las soluciones de inteligencia artificial ofrecen muchas oportunidades a los usuarios y los atacantes, por lo que pueden ser herramientas muy útiles y una pesadilla para la seguridad al mismo tiempo. Dados los desafíos de seguridad del software tradicional, la complejidad de la inteligencia artificial requiere estrategias de seguridad especializadas que puedan integrarse a los procesos actuales.

Una estrategia efectiva de seguridad de la inteligencia artificial tiene en cuenta todas las puertas y ventanas para cerrar grietas y evitar posibles infiltraciones mediante la prevención activa. No solo protege los datos confidenciales de la exposición y la exfiltración, sino que también aplica medidas de protección contra los ataques, mantiene el cumplimiento de las políticas de seguridad y de los marcos normativos explícitos (como la Ley de Inteligencia Artificial de la Unión Europea) y permite supervisar la estrategia de seguridad de los sistemas de inteligencia artificial para poder confiar en ella.

Cuatro aspectos clave para la implementación de la tecnología de inteligencia artificial

Los manipuladores de la inteligencia artificial son cada vez más inteligentes y más astutos. Si bien hay distintos tipos de ataques de seguridad de la inteligencia artificial, algunos son más frecuentes que otros. Estos son algunos de los más comunes:  

  • Ataques con inyección de peticiones. Los atacantes de inteligencia artificial utilizan peticiones maliciosas para manipular los resultados de la inteligencia artificial, de manera que esta revele datos confidenciales, ejecute acciones no deseadas u omita las políticas y los controles de seguridad implícitos y explícitos.
  • Envenenamiento de datos. Los atacantes manipulan los modelos de inteligencia artificial mediante la incorporación de datos maliciosos o malware, lo que genera resultados inexactos, sesgados o peligrosos. Esto puede causar interrupciones y generar resultados inadecuados.

Los sistemas de inteligencia artificial se enfrentan al riesgo de los ataques maliciosos y las fallas operativas. Al igual que cualquier sistema implementado, los modelos pueden sufrir desajustes y deterioro cuando no tienen un mantenimiento adecuado. Cuando los modelos se entrenan con datos de baja calidad o no se actualizan con el tiempo, los datos pueden volverse incorrectos, desactualizados y perjudiciales, lo que provoca una falta de precisión y un rendimiento deficiente. 

Para proteger a tu equipo y tu tecnología, combina las estrategias en capas, ya que es probable que una sola línea de defensa no sea suficiente. Estas son algunas de las tácticas más comunes:

  • Análisis del comportamiento. Este tipo de detección de amenazas puede encontrar anomalías y variaciones en una red. Después de realizar un seguimiento de los conjuntos de datos, los patrones y la actividad habituales, se familiariza con el comportamiento típico del sistema de inteligencia artificial. Cuando detecta un comportamiento atípico, como contenido sesgado o, peor aún, contraseñas públicas en texto no cifrado, activa una alerta.
  • Detección de amenazas durante la ejecución. Cuando un agente malintencionado analiza un entorno en busca de puntos vulnerables, los mecanismos de seguridad del tiempo de ejecución pueden detectar estos sondeos repetidos y activar la alarma. Puedes automatizar esta técnica y mejorarla con inteligencia artificial para reconocer las amenazas y activar las alertas con mayor rapidez.
  • Inteligencia predictiva contra las amenazas. Esta tecnología se anticipa a los eventos futuros al utilizar el historial de datos para predecir futuros eventos. Por ejemplo, si un agente malintencionado ataca los sistemas de tecnología financiera con ransomware, la inteligencia predictiva contra las amenazas evalúa la estrategia de la empresa en función de la probabilidad de que el ataque sea exitoso.
  • Procesamiento de datos optimizado. Las cargas de trabajo de inteligencia artificial contienen una gran cantidad de datos (miles de millones de puntos de datos). La seguridad de la inteligencia artificial debe procesar esos datos para determinar si están en riesgo, si son confidenciales o si están disponibles. El procesamiento de datos optimizado detecta las anomalías y las amenazas en el entorno con mayor rapidez que las personas o la tecnología de procesamiento tradicional, de manera que los equipos puedan actuar de inmediato.
  • Análisis de la ruta de ataque. Esta estrategia te permite identificar los posibles puntos vulnerables y amenazas. Por ejemplo, si comprendes el mecanismo de una amenaza para acceder a los sistemas y llegar a los datos confidenciales, podrás identificar la ruta de ataque y bloquearla. 

Todas las etapas del ciclo de vida de la inteligencia artificial tienen puntos vulnerables que deben protegerse. Entre los elementos que conforman una estrategia de seguridad de inteligencia artificial adecuada para proteger tus modelos, datos y privacidad, se encuentran:

  • Mecanismos de protección de la inteligencia artificial: Estos mecanismos permiten que los modelos de inteligencia artificial generativa filtren expresiones abusivas, discursos de odio, obscenidades, información de identificación personal, información de la competencia y otras limitaciones específicas del área.
  • Datos de entrenamiento protegidos: Los sistemas de inteligencia artificial suelen ser tan confiables como los datos con los que se entrenaron. Los datos de entrenamiento originales deben protegerse con firewalls u otras medidas de seguridad para evitar su alteración o manipulación y garantizar la integridad del modelo y los resultados.
  • Sólida seguridad de la plataforma: Protege la plataforma en la que se ejecutan las cargas de trabajo de inteligencia artificial para garantizar su estado y fiabilidad. Cuando la plataforma es segura, los responsables de las amenazas deben esforzarse más para ocasionar daños.
  • Seguridad de la cadena de suministro y los sistemas: Puedes adaptar las prácticas recomendadas actuales en materia de seguridad de la cadena de suministro y los sistemas para cubrir las cargas de trabajo de inteligencia artificial. Así como la seguridad de la cadena de suministro de software tradicional verifica la integridad de las bibliotecas open source, la seguridad de la cadena de suministro de inteligencia artificial puede controlar la procedencia y la integridad de los datos de entrenamiento, los modelos entrenados previamente y los elementos de terceros.
  • Estrategias personalizadas: Las cargas de trabajo de inteligencia artificial son únicas, por lo que en muy pocas ocasiones se adaptan a las soluciones de seguridad universales. La estrategia de seguridad debe adaptarse a las cargas de trabajo, los diseños y los datos de inteligencia artificial particulares. 

Puedes implementar las prácticas recomendadas con herramientas y soluciones comunes que protegen tus sistemas de inteligencia artificial, entre las que se encuentran: 

  • Gestión de identidades y acceso: Estos sistemas controlan quién tiene acceso a los sistemas y a la infraestructura de inteligencia artificial, así como la forma y el momento en que se produce el acceso. Por ejemplo, utiliza la autenticación multifactor para proteger los datos confidenciales.
  • Gestión de la estrategia de seguridad de la inteligencia artificial: Estas herramientas supervisan las implementaciones y las operaciones de seguridad. Aportan claridad e información sobre los modelos y los datos para que puedas controlar los sistemas de inteligencia artificial.
  • Proceso de validación de resultados: Los resultados envenenados o no validados pueden ocasionar problemas en los sistemas downstream e incluso exponer datos confidenciales. Este proceso vuelve a verificar los resultados del modelo antes de enviarlos para otras operaciones.

La seguridad de la inteligencia artificial aporta una serie de beneficios a las estrategias de inteligencia artificial de tu empresa, entre los que se incluye la tranquilidad. La seguridad de la inteligencia artificial fortalece tu estrategia, ya sea para ayudar a que tus cargas de trabajo de inteligencia artificial se ejecuten sin problemas o para que tu equipo se centre en las tareas más importantes. Estos son algunos de los beneficios: 

  • Reducción de la exposición y los riesgos. Al evitar que los datos se vean comprometidos, la seguridad de la inteligencia artificial impide que los datos confidenciales y privados caigan en manos equivocadas. Cuando los ataques se detienen antes de que causen daños, los usuarios y los sistemas de inteligencia artificial no se ven afectados.
  • Ahorro de costos y tiempo. La reducción de la exposición de los datos confidenciales se traduce en menos interrupciones y operaciones más fluidas. Al neutralizar o frustrar los ataques, se reduce el tiempo de inactividad y se dispone de más tiempo para generar innovaciones.
  • Optimización de la inteligencia contra las amenazas. A medida que la seguridad de la inteligencia artificial actúa contra las potenciales amenazas, aprende sobre los riesgos comunes y su funcionamiento. Con el tiempo, puede anticiparse a dichas amenazas. 

La inteligencia artificial es una tecnología relativamente nueva, por lo que el sector sigue trabajando para perfeccionarla. Debido a sus constantes cambios, es necesario adoptar un enfoque flexible para protegerla. Estos son algunos de los desafíos más comunes que debe enfrentar el sector: 

  • Evolución de las amenazas específicas de la inteligencia artificial. Como la inteligencia artificial sigue avanzando, los puntos vulnerables para su explotación convierten a las aplicaciones y los modelos de inteligencia artificial en objetivos atractivos para los agentes malintencionados. A medida que la inteligencia artificial se transforma y evoluciona, también cambian los requisitos de seguridad.
  • Cadena de suministro de software compleja. El ciclo de vida de la inteligencia artificial consta de varios elementos, como bibliotecas open source, interfaces de programación de aplicaciones (API) de terceros y modelos entrenados previamente. Cada uno de estos elementos puede ser un punto de entrada para los atacantes. Las cadenas de suministro de inteligencia artificial complejas requieren un enfoque de seguridad en capas para contemplar cada uno de sus elementos.
  • Requisitos fundamentales para la seguridad de la inteligencia artificial. Es esencial limpiar los datos para eliminar los sesgos y los desajustes de los modelos y, así, garantizar su funcionamiento según lo previsto. Para comprender y limpiar los datos de entrenamiento de la inteligencia artificial, se requieren habilidades específicas nuevas en el sector.
  • Integración de la seguridad actual. Cuando integres tecnologías nuevas, como la inteligencia artificial, en tus herramientas actuales, asegúrate de utilizar sistemas que protejan y observen tanto las cargas de trabajo como la infraestructura de soporte.
  • Fallas en la supervisión y el control. A pesar del gran esfuerzo en la creación de soluciones de seguridad y políticas para la inteligencia artificial nueva, muchos riesgos imprevistos no se abordan de manera preventiva, a veces porque es la primera vez que ocurren. Para que las políticas de seguridad de la inteligencia artificial funcionen, deben actualizarse constantemente a medida que surgen nuevas recomendaciones.

Si bien siempre ha habido riesgos para los datos y la privacidad de los usuarios, la inteligencia artificial plantea muchos más. Estos son algunos de los lineamientos clave que se deben seguir cuando se utiliza esta tecnología: 

  • Privacidad de la inteligencia artificial. Para garantizar la privacidad, es necesario proteger los datos personales y propietarios del uso no autorizado. Aplica medidas de seguridad importantes para garantizar la seguridad de los datos privados.
  • Cumplimiento normativo de la inteligencia artificial. A medida que evolucione la inteligencia artificial, también lo harán el cumplimiento legal y las normas gubernamentales, lo que podría dar lugar a un estándar del sector que mejore su uso. 

Si bien no forma parte del ámbito de la seguridad, la ética de la inteligencia artificial puede afectar el riesgo general que esta supone para una empresa. Los usuarios deben conocer los resultados de sus modelos y el modo de usarlos para tomar decisiones.

El uso ético de la inteligencia artificial implica tener en cuenta valores sociales, como los derechos humanos, la equidad y la transparencia. Para asegurarte de que los modelos se ajusten a tu política de ética de la inteligencia artificial, verifica el modo de desarrollo y entrenamiento. Además, deberás supervisar permanentemente sus resultados para evitar desviaciones de la política.

El open source fomenta la transparencia y la confianza de la comunidad. Nuestras soluciones están diseñadas para la nube híbrida con tecnologías de open source, que protegen todo el ciclo de vida de la inteligencia artificial. 

Red Hat® AI permite que los equipos prueben, ajusten y distribuyan aplicaciones innovadoras. Ofrece un enfoque integral y en capas para la seguridad de la inteligencia artificial, que se basa en la seguridad de la plataforma y en las prácticas de DevSecOps. 
 

Más información sobre Red Hat AI 
 

Nuestras soluciones permiten que los clientes diseñen e implementen aplicaciones de inteligencia artificial confiables al reducir los riesgos de seguridad en cada etapa. Específicamente, Red Hat OpenShift® AI ofrece beneficios para mantener la equidad, la seguridad y la capacidad de ajuste, como los siguientes:

  • Supervisión optimizada. Olvídate del fenómeno de la "caja negra" que oculta la forma en que los modelos llegan a sus conclusiones e impide que los algoritmos (y los usuarios) comprendan el procedimiento. Obtén información sobre los puntos vulnerables, el código malicioso, los problemas con las licencias y los posibles riesgos de seguridad de la inteligencia artificial con Red Hat Trusted Profile Analyzer.
  • Flujos de trabajo de desarrollo integrados. Detecta los puntos vulnerables con antelación y reduce el trabajo costoso y repetitivo aplicando las prácticas recomendadas de seguridad de la inteligencia artificial desde el principio y de manera uniforme durante el proceso de desarrollo. Red Hat Advanced Developer Suite, que está integrada en OpenShift AI, aloja herramientas como Red Hat Developer Hub que puedes implementar en los flujos de trabajo de desarrollo para respaldar la procedencia y la evaluación de los modelos.
  • Uniformidad en la nube híbrida. Realiza inferencias en cualquier lugar con soluciones de inteligencia artificial diseñadas para ofrecer flexibilidad en la nube híbrida. Las cargas de trabajo de inteligencia artificial deben tener el mismo nivel de seguridad y rendimiento, independientemente de que trabajes en las instalaciones, en la nube o en el extremo de la red.
  • Alineación de los modelos. Garantiza la uniformidad de la precisión de los datos y la integridad de los modelos al supervisar la alineación entre los resultados y los datos de entrenamiento. OpenShift AI también posibilita el perfeccionamiento eficiente de los modelos de lenguaje de gran tamaño (LLM) con LoRa/QLoRA para reducir la sobrecarga informática y el uso de la memoria.
  • Herramientas de detección de deriva. Protege tus modelos para evitar el ingreso y la generación de información maliciosa, como el lenguaje abusivo y vulgar, los datos personales y otros riesgos específicos del área. Los mecanismos de protección de la inteligencia artificial y los supervisores en tiempo real pueden detectar cuando los datos en vivo que se utilizan para la inferencia de un modelo se desvían de los datos de entrenamiento originales y perjudican el desempeño de la inteligencia artificial. 

Obtén más información sobre Red Hat OpenShift AI

Recurso

Introducción a la inteligencia artificial para las empresas: Guía para principiantes

Acelera tu proceso de adopción de la inteligencia artificial con Red Hat OpenShift AI y Red Hat Enterprise Linux AI. Obtén más información al respecto en esta guía para principiantes.

Domine la IA con Red Hat: Experiencia, capacitación y soporte para adoptar la IA

Explore la cartera única de Red Hat sobre inteligencia artificial. Red Hat AI lo ayuda a alcanzar sus objetivos empresariales y de TI con la inteligencia artificial

Más información

¿Qué es la inferencia distribuida?

La inferencia distribuida permite que los modelos de inteligencia artificial procesen las cargas de trabajo de manera más eficiente al dividir la tarea de inferencia entre un grupo de dispositivos interconectados.

¿Qué es el protocolo de contexto de modelos?

Descubre la manera en que el protocolo de contexto de modelos (MCP) conecta las aplicaciones de inteligencia artificial con las fuentes de datos externas para que puedas diseñar flujos de trabajo más inteligentes.

Todo sobre AIOps

AIOps (inteligencia artificial para las operaciones de TI) es un enfoque para automatizar las operaciones de TI con el machine learning (aprendizaje automático) y otras técnicas avanzadas de inteligencia artificial.

IA/ML: lecturas recomendadas

Producto destacado

  • Red Hat AI

    Soluciones flexibles que agilizan el desarrollo y la implementación de las soluciones de inteligencia artificial en los entornos de nube híbrida.

Artículos relacionados